CN113391699A - 一种基于动态眼动指标的眼势交互模型方法 - Google Patents

一种基于动态眼动指标的眼势交互模型方法 Download PDF

Info

Publication number
CN113391699A
CN113391699A CN202110649291.7A CN202110649291A CN113391699A CN 113391699 A CN113391699 A CN 113391699A CN 202110649291 A CN202110649291 A CN 202110649291A CN 113391699 A CN113391699 A CN 113391699A
Authority
CN
China
Prior art keywords
data
eye movement
eye
fixation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110649291.7A
Other languages
English (en)
Other versions
CN113391699B (zh
Inventor
殷继彬
卢朝茜
秦浩楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haikou Longhua Shiyue Jewelry Store
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202110649291.7A priority Critical patent/CN113391699B/zh
Publication of CN113391699A publication Critical patent/CN113391699A/zh
Application granted granted Critical
Publication of CN113391699B publication Critical patent/CN113391699B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于动态眼动指标的眼势交互模型方法,涉及动态眼动指标技术领域,包括以下步骤:预先基于眼动仪获取原始眼动轨迹数据,并提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据和注视持续时间数据作为特征信息。本发明通过权重计算方法及眼势交互模型通过用户的自然眼动轨迹,预测用户想要完成的操作或任务,并给出预测结果反馈,通过挖掘多用户眼动行为蕴含的行为语义,隐式的识别用户意图并且发出指令,不仅为其提供主动式的服务,属于隐含式交互,可以大大减少用的认知负荷,而且提高了交互的自然性、智能性和准确性,也使得交互系统的可靠性得以提升。

Description

一种基于动态眼动指标的眼势交互模型方法
技术领域
本发明涉及动态眼动指标技术领域,具体来说,涉及一种基于动态眼动指标的眼势交互模型方法。
背景技术
传统的眼动研究方法主要对单个眼动指标(如注视时间、眼跳时间、回视时间、眼跳潜伏期、追随运动时间等)进行统计,再对统计结果进行统计学分析,最后对统计学的结果进行分析得出实验结论。眼势被定义为一系列有序的视线行程,每一个行程是两个固定注视点或注视区域的有意的视线移动。眼动轨迹是注视点随时间变化的序列,动态反映人在驾驶、阅读时的眼部活动情况,眼动轨迹含有非常丰富的信息。识别眼势即识别眼动轨迹,依赖于眼势识别算法或眼动跟踪算法。
这些年来,眼动跟踪算法不断改进,可以提供更精确的注视特征估计。最先进的凝视估计方法依赖于基于混合特征和模型的方法,并需要专用硬件,如红外灯和立体相机,用来跟踪测试者的头部和眼睛。此外,眼动跟踪设备通常具有一定的误差,这增加了跟踪眼睛选择小目标时的难度。
目前现有的相关技术,是通过定义某些特定的眼动行为或结合特定的眼动轨迹作为与某些操作对应的眼势,并没有考虑用户的自然眼动规律与操作的对应关系,属于命令式交互,对用户而言,需承担更多的认知负荷。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于动态眼动指标的眼势交互模型方法,通过权重计算方法及眼势交互模型通过用户的自然眼动轨迹,预测用户想要完成的操作或任务,并给出预测结果反馈,以解决眼动跟踪设备有误差导致的对小目标进行选择时难度增加的问题,并且通过挖掘多用户眼动行为蕴含的行为语义,隐式的识别用户意图并且发出指令,使得人机交互更加智能化和人性化的技术问题。
本发明的技术方案是这样实现的:
一种基于动态眼动指标的眼势交互模型方法,包括以下步骤:
预先基于眼动仪获取原始眼动轨迹数据,并提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据和注视持续时间数据作为特征信息,
将提取的特征信息进行预处理得到的m个注视点的数据后根据权重计算方法计算出各兴趣区域的权重值;
并将各权重值作为新特征值输入眼势识别算法中,用户的操作做为输出,通过神经网络模型输出后,得到了特征值与用户操作的对应关系值,获取识别结果,对用户想要进行的操作进行预测。
进一步的,所述原始眼动轨迹数据,包括刷新操作数据、查看进度操作数据、最小化操作数据、关闭操作数据、查看目录操作数据、搜索操作数据、缩放操作数据、保存操作数据、复制操作数据和换页操作数据。
进一步的,所述特征信息,包括:
坐标数据为注视点在屏幕中的二维坐标,记为X和Y;
兴趣区域数据为注视点在屏幕中所在区域的位置,表示为AOIk
注视持续时间数据为当前注视点持续的时间,记为fixduration。
进一步的,所述特征信息进行预处理,包括以下步骤:
剔除不在X和Y范围内的注视点的坐标数据、该点对应的兴趣区域数据和注视持续时间数据;
将剔除后剩余的注视点进行重新规划,包括以下步骤:
计算剩余n个注视点之间的经过的路程长度length,并指定重新规划所需的点的数量m;
计算m个点间的等距离distance(distance=length/(1-m)),并对剩余的n个注视点按线性插值法以距离distance插入新的点;
获得重新规划后的m个点。
进一步的,所述神经网络模型,包括:
五层全连接神经网络,其中包括一个输入层、三个隐藏层、一个输出层;
隐藏层中使用了relu激活函数;
输出层中使用了softmax激活函数和交叉熵损失函数。
本发明的有益效果是:
本发明基于动态眼动指标的眼势交互模型方法,通过预先基于眼动仪获取原始眼动轨迹数据,并提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据和注视持续时间数据作为特征信息,将提取的特征信息进行预处理得到的m个注视点的数据后根据权重计算方法计算出各兴趣区域的权重值;并将各权重值作为新特征值输入眼势识别算法中,用户的操作做为输出,通过神经网络模型输出后,得到了特征值与用户操作的对应关系值,获取识别结果,对用户想要进行的操作进行预测,通过权重计算方法及眼势交互模型通过用户的自然眼动轨迹,预测用户想要完成的操作或任务,并给出预测结果反馈,以解决眼动跟踪设备有误差导致的对小目标进行选择时难度增加的问题,并且通过挖掘多用户眼动行为蕴含的行为语义,隐式的识别用户意图并且发出指令,使得人机交互更加智能化和人性化,不仅为其提供主动式的服务,属于隐含式交互,可以大大减少用的认知负荷,而且提高了交互的自然性、智能性和准确性,也使得交互系统的可靠性得以提升。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于动态眼动指标的眼势交互模型方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种基于动态眼动指标的眼势交互模型方法。
如图1所示,根据本发明实施例的基于动态眼动指标的眼势交互模型方法,包括以下步骤:
步骤一,使用眼动仪以及软件记录用户对10类操作的自然眼动轨迹数据,以获取眼动仪记录的N条原始眼动轨迹数据,其中,10类操作包括刷新、查看进度、最小化、关闭、查看目录、搜索、缩放、保存、复制和换页,针对每一个类所产生的眼动数据不得少于10条,即:N≥100;
步骤二,提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据以及注视持续时间数据作为特征。特征的具体信息如下:
1)坐标数据即注视点在屏幕中的二维坐标,记为X、Y,其中X的取值为[0,1920],Y的取值为[0,1080]。
2)兴趣区域数据即注视点在屏幕中所在区域的位置,记为AOIk
其中,因屏幕被划分为9个区域,故k=9,具体的:
AOI1的区域范围是X∈[480,1440)、Y∈[270,810);
AOI2的区域范围是X∈[0,570)、Y∈[0,270);
AOI3的区域范围是X∈[570,1380)、Y∈[0,270);
AOI4的区域范围是X∈[1380,1920]、Y∈[0,270);
AOI5的区域范围是X∈[0,480)、Y∈[270,810);
AOI6的区域范围是X∈[1440,1920]、Y∈[270,810);
AOI7的区域范围是X∈[0,570)、Y∈[810,1080];
AOI8的区域范围是X∈[570,1380)、Y∈[810,1080];
AOI9的区域范围是X∈[1380,1920]、Y∈[810,1080]。
另外,为了将注视点在各区域中的具体位置进行区分,将9个AOI各自划分出子区域,记为subAOI,其中,AOI1以中心坐标(960,540)为基准分为4个子区域,AOI2、AOI4、AOI7、AOI9均按垂直方向范围不变,水平方向三等分为基准均分为3个子区域,AOI3、AOI8均按垂直方向范围不变,水平方向二等分为基准均分为2个子区域,AOI5、AOI6均按水平方向范围不变,垂直方向二等分为基准均分为2个子区域。各AOI对应的子区域号按各自基准的从小到大的顺序标为1、2、3、4。本划分方式适用于分辨率为1920*1080像素的屏幕,其他分辨率可依此比例划分。
3)注视持续时间数据即当前注视点持续的时间,记为fixduration。
步骤三,对所提取的特征进行数据预处理。预处理包括:
1)剔除不在X和Y范围内的注视点的坐标数据及其该点对应的兴趣区域数据和注视持续时间数据;
2)剔除注视时间小于100ms或大于1000ms的注视点的坐标数据及其该点对应的兴趣区域数据和注视持续时间数据;
3)将剔除后剩余的注视点进行重新规划。
其中,重新规划的具体步骤如下:
31)计算剩余n个注视点之间的经过的路程长度length,并指定重新规划所需的点的数量m(m>n),
32)计算m个点间的等距离distance(distance=length/(1-m)),并对剩余的n个注视点按线性插值法以距离distance插入新的点(包括点的坐标数据、兴趣区域数据和注视持续时间数据),
33)以获得重新规划后的m个点(经过验证,m取值为35时本眼势识别算法的识别率最高)。
步骤四,将预处理后得到的m个注视点的数据根据权重计算方法计算出各兴趣区域的权重值。
其中,权重计算方法:计算出注视点出现在各兴趣区域的注视持续时间,出现的先后顺序以及出现的子区域之间的关系数值。将当前兴趣区域AOIk的权重值记为weightk。totalWeight为9个AOI的权重值之和。
步骤五,将各兴趣区域的权重值作为新的特征输入眼势识别算法中。
其中,眼势识别算法:以9个兴趣区域的权重值
weightk(k=1,2,……,9)为输入,所对应的用户的10种操作为输出的神经网络模型。经过神经网络模型输出后,得到了9个兴趣区域的权重值与10种操作的对应关系。
具体的,其神经网络模型,如下:
1)使用了五层全连接神经网络,其中包括一个输入层、三个隐藏层、一个输出层。;
2)使用实验收集的2700条数据作为训练集,300条数据作为测试集。
3)隐藏层中使用了relu激活函数。
4)输出层中使用了softmax激活函数和交叉熵损失函数。
综上所述,借助于本发明的上述技术方案,通过预先基于眼动仪获取原始眼动轨迹数据,并提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据和注视持续时间数据作为特征信息,将提取的特征信息进行预处理得到的m个注视点的数据后根据权重计算方法计算出各兴趣区域的权重值;并将各权重值作为新特征值输入眼势识别算法中,用户的操作做为输出,通过神经网络模型输出后,得到了特征值与用户操作的对应关系值,获取识别结果,对用户想要进行的操作进行预测,通过权重计算方法及眼势交互模型通过用户的自然眼动轨迹,预测用户想要完成的操作或任务,并给出预测结果反馈,以解决眼动跟踪设备有误差导致的对小目标进行选择时难度增加的问题,并且通过挖掘多用户眼动行为蕴含的行为语义,隐式的识别用户意图并且发出指令,使得人机交互更加智能化和人性化,不仅为其提供主动式的服务,属于隐含式交互,可以大大减少用的认知负荷,而且提高了交互的自然性、智能性和准确性,也使得交互系统的可靠性得以提升。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于动态眼动指标的眼势交互模型方法,其特征在于,包括以下步骤:
预先基于眼动仪获取原始眼动轨迹数据,并提取原始眼动轨迹数据中各注视点的坐标数据、兴趣区域数据和注视持续时间数据作为特征信息,
将提取的特征信息进行预处理得到的m个注视点的数据后根据权重计算方法计算出各兴趣区域的权重值;
并将各权重值作为新特征值输入眼势识别算法中,用户的操作做为输出,通过神经网络模型输出后,得到了特征值与用户操作的对应关系值,获取识别结果,对用户想要进行的操作进行预测。
2.根据权利要求1所述的基于动态眼动指标的眼势交互模型方法,其特征在于,所述原始眼动轨迹数据,包括刷新操作数据、查看进度操作数据、最小化操作数据、关闭操作数据、查看目录操作数据、搜索操作数据、缩放操作数据、保存操作数据、复制操作数据和换页操作数据。
3.根据权利要求2所述的基于动态眼动指标的眼势交互模型方法,其特征在于,所述特征信息,包括:
坐标数据为注视点在屏幕中的二维坐标,记为X和Y;
兴趣区域数据为注视点在屏幕中所在区域的位置,表示为AOIk
注视持续时间数据为当前注视点持续的时间,记为fixduration。
4.根据权利要求3所述的基于动态眼动指标的眼势交互模型方法,其特征在于,所述特征信息进行预处理,包括以下步骤:
剔除不在X和Y范围内的注视点的坐标数据、该点对应的兴趣区域数据和注视持续时间数据;
将剔除后剩余的注视点进行重新规划,包括以下步骤:
计算剩余n个注视点之间的经过的路程长度length,并指定重新规划所需的点的数量m;
计算m个点间的等距离distance(distance=length/(1-m)),并对剩余的n个注视点按线性插值法以距离distance插入新的点;
获得重新规划后的m个点。
5.根据权利要求4所述的基于动态眼动指标的眼势交互模型方法,其特征在于,所述神经网络模型,包括:
五层全连接神经网络,其中包括一个输入层、三个隐藏层、一个输出层;
隐藏层中使用了relu激活函数;
输出层中使用了softmax激活函数和交叉熵损失函数。
CN202110649291.7A 2021-06-10 2021-06-10 一种基于动态眼动指标的眼势交互模型方法 Active CN113391699B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110649291.7A CN113391699B (zh) 2021-06-10 2021-06-10 一种基于动态眼动指标的眼势交互模型方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110649291.7A CN113391699B (zh) 2021-06-10 2021-06-10 一种基于动态眼动指标的眼势交互模型方法

Publications (2)

Publication Number Publication Date
CN113391699A true CN113391699A (zh) 2021-09-14
CN113391699B CN113391699B (zh) 2022-06-21

Family

ID=77620311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110649291.7A Active CN113391699B (zh) 2021-06-10 2021-06-10 一种基于动态眼动指标的眼势交互模型方法

Country Status (1)

Country Link
CN (1) CN113391699B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114967128A (zh) * 2022-06-20 2022-08-30 深圳市新联优品科技有限公司 一种应用于vr眼镜的视线追踪系统及方法
CN115661913A (zh) * 2022-08-19 2023-01-31 北京津发科技股份有限公司 一种眼动分析方法及系统
CN115793862A (zh) * 2023-01-05 2023-03-14 东云睿连(武汉)计算技术有限公司 一种图像目标隐式标注方法、系统、电子设备及存储介质
CN116050282A (zh) * 2023-02-23 2023-05-02 华中科技大学 用户对情报的需求度计算方法和隐式反馈需求度预测方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184550A1 (en) * 2011-09-07 2014-07-03 Tandemlaunch Technologies Inc. System and Method for Using Eye Gaze Information to Enhance Interactions
US20150177833A1 (en) * 2013-12-23 2015-06-25 Tobii Technology Ab Eye Gaze Determination
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
CN108763394A (zh) * 2018-05-21 2018-11-06 浙江工业大学 面向协同交互的多用户眼动跟踪数据可视化方法和系统
US20190275946A1 (en) * 2016-07-05 2019-09-12 Mitsubishi Electric Corporation Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
US20200064914A1 (en) * 2018-08-27 2020-02-27 University Of Rochester System and method for real-time high-resolution eye-tracking
US20200202561A1 (en) * 2018-12-24 2020-06-25 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
CN111353506A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 自适应的视线估计方法和设备
CN111443804A (zh) * 2019-12-27 2020-07-24 安徽大学 基于视频分析的注视点轨迹描述方法及其系统
WO2020186883A1 (zh) * 2019-03-18 2020-09-24 北京市商汤科技开发有限公司 注视区域检测及神经网络训练的方法、装置和设备
CN111722708A (zh) * 2020-04-29 2020-09-29 中国人民解放军战略支援部队信息工程大学 一种基于眼动的多维地理信息自适应智能交互方法及装置
CN111949131A (zh) * 2020-08-17 2020-11-17 陈涛 一种基于眼动追踪技术的眼动交互方法、系统及设备
US20210018978A1 (en) * 2019-07-16 2021-01-21 Samsung Electronics Co., Ltd. Method and apparatus for predicting intention of user

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184550A1 (en) * 2011-09-07 2014-07-03 Tandemlaunch Technologies Inc. System and Method for Using Eye Gaze Information to Enhance Interactions
US20150177833A1 (en) * 2013-12-23 2015-06-25 Tobii Technology Ab Eye Gaze Determination
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
US20190275946A1 (en) * 2016-07-05 2019-09-12 Mitsubishi Electric Corporation Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
CN108763394A (zh) * 2018-05-21 2018-11-06 浙江工业大学 面向协同交互的多用户眼动跟踪数据可视化方法和系统
US20200064914A1 (en) * 2018-08-27 2020-02-27 University Of Rochester System and method for real-time high-resolution eye-tracking
US20200202561A1 (en) * 2018-12-24 2020-06-25 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
CN111353506A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 自适应的视线估计方法和设备
WO2020186883A1 (zh) * 2019-03-18 2020-09-24 北京市商汤科技开发有限公司 注视区域检测及神经网络训练的方法、装置和设备
US20210018978A1 (en) * 2019-07-16 2021-01-21 Samsung Electronics Co., Ltd. Method and apparatus for predicting intention of user
CN111443804A (zh) * 2019-12-27 2020-07-24 安徽大学 基于视频分析的注视点轨迹描述方法及其系统
CN111722708A (zh) * 2020-04-29 2020-09-29 中国人民解放军战略支援部队信息工程大学 一种基于眼动的多维地理信息自适应智能交互方法及装置
CN111949131A (zh) * 2020-08-17 2020-11-17 陈涛 一种基于眼动追踪技术的眼动交互方法、系统及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄君浩等: "基于LSTM的眼动行为识别及人机交互应用", 《计算机系统应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114967128A (zh) * 2022-06-20 2022-08-30 深圳市新联优品科技有限公司 一种应用于vr眼镜的视线追踪系统及方法
CN115661913A (zh) * 2022-08-19 2023-01-31 北京津发科技股份有限公司 一种眼动分析方法及系统
CN115793862A (zh) * 2023-01-05 2023-03-14 东云睿连(武汉)计算技术有限公司 一种图像目标隐式标注方法、系统、电子设备及存储介质
CN116050282A (zh) * 2023-02-23 2023-05-02 华中科技大学 用户对情报的需求度计算方法和隐式反馈需求度预测方法
CN116050282B (zh) * 2023-02-23 2024-06-11 华中科技大学 用户对情报的需求度计算方法和隐式反馈需求度预测方法

Also Published As

Publication number Publication date
CN113391699B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
CN113391699B (zh) 一种基于动态眼动指标的眼势交互模型方法
Hahn et al. Tripping through time: Efficient localization of activities in videos
Gao et al. Dynamic zoom-in network for fast object detection in large images
WO2021017606A1 (zh) 视频处理方法、装置、电子设备及存储介质
JP7147078B2 (ja) ビデオフレームの情報ラベリング方法、装置、機器及びコンピュータプログラム
Baee et al. Medirl: Predicting the visual attention of drivers via maximum entropy deep inverse reinforcement learning
US11915614B2 (en) Tracking concepts and presenting content in a learning system
CN112132866A (zh) 目标对象跟踪方法、装置、设备及计算机可读存储介质
CN113378641B (zh) 基于深度神经网络和注意力机制的手势识别方法
Zhang et al. SIFT flow for abrupt motion tracking via adaptive samples selection with sparse representation
CN114245232B (zh) 一种视频摘要生成方法、装置、存储介质及电子设备
CN114528762B (zh) 一种模型训练方法、装置、设备和存储介质
Hua et al. Light-weight UAV object tracking network based on strategy gradient and attention mechanism
CN114842553A (zh) 基于残差收缩结构和非局部注意力的行为检测方法
Wei et al. Sequence-to-segment networks for segment detection
Huang et al. Real‐Time Precise Human‐Computer Interaction System Based on Gaze Estimation and Tracking
Leng et al. BDNet: a method based on forward and backward convolutional networks for action recognition in videos
Chu et al. Multi-modal fusion sign language recognition based on residual network and attention mechanism
CN112183221A (zh) 一种基于语义的动态物体自适应轨迹预测方法
CN115147457B (zh) 基于时空感知的记忆增强型自监督跟踪方法及装置
CN116797799A (zh) 一种基于通道注意力和时空感知的单目标跟踪方法及跟踪系统
Lu et al. Real-time continuous detection and recognition of dynamic hand gestures in untrimmed sequences based on end-to-end architecture with 3D DenseNet and LSTM
CN116301364A (zh) 基于鼠标轨迹的医学影像阅片交互行为预测方法
Zhang et al. Facial expression recognition based on spatial-temporal fusion with attention mechanism
Zhang et al. Depth quality-inspired feature manipulation for efficient rgb-d and video salient object detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240221

Address after: Room 9-9001, Building 28, Yufu Community, No. 108 Huafu Road, Jinmao Street, Longhua District, Haikou City, Hainan Province, 570106

Patentee after: Haikou Longhua Shiyue Jewelry Store

Country or region after: China

Address before: 650500 Chenggong campus of Kunming University of technology, no.727 Jingming South Road, Chenggong District, Kunming City, Yunnan Province

Patentee before: Kunming University of Science and Technology

Country or region before: China