CN116719418B - 一种注视点预测模型的检验方法及装置 - Google Patents
一种注视点预测模型的检验方法及装置 Download PDFInfo
- Publication number
- CN116719418B CN116719418B CN202310994167.3A CN202310994167A CN116719418B CN 116719418 B CN116719418 B CN 116719418B CN 202310994167 A CN202310994167 A CN 202310994167A CN 116719418 B CN116719418 B CN 116719418B
- Authority
- CN
- China
- Prior art keywords
- video
- gaze point
- audience
- eye movement
- movement information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000004424 eye movement Effects 0.000 claims abstract description 78
- 238000007689 inspection Methods 0.000 claims abstract description 63
- 238000012360 testing method Methods 0.000 claims abstract description 39
- 238000012795 verification Methods 0.000 claims description 89
- 238000009413 insulation Methods 0.000 claims description 26
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 239000007787 solid Substances 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 6
- 208000003464 asthenopia Diseases 0.000 description 4
- 108010066057 cabin-1 Proteins 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
一种注视点预测模型的检验方法及装置,包含以下步骤:S1,获取多名观众分别通过检验装置观看注视点测试视频的眼动信息,所述注视点测试视频包括验证视频序列和检验视频,所述检验视频用于表征观众的注意力;S2、通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力,舍弃观众在注意力分散时前后两个验证视频的眼动信息,将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,并求出所述向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。本发明有效消除检验者个人问题对检验结果的影响,从而有效提升检验结果的准确度。
Description
技术领域
本发明涉及视频处理技术领域,尤其是涉及一种注视点预测模型的检验方法及装置。
背景技术
视频注视点预测是指根据视频内容和观众的视觉行为,预测观众在观看视频时的注视点或注意力焦点位置;视频注视点预测在计算机视觉和人机交互领域具有广泛的应用;它可以用于视频编码、视频质量评估、视频内容分析等任务;现有用于视频注视点预测的基本流程为:数据收集:收集包含视频内容和观众眼动数据的数据集;观众眼动数据可以通过眼动仪等设备记录;特征提取:从视频中提取有用的视觉特征,这些特征可以包括颜色、纹理、运动、目标检测等;同时,还可以提取观众眼动数据中的特征,如注视点的位置、注视持续时间等;数据预处理:对提取的特征进行预处理和归一化,以便更好地与模型进行训练和预测;模型训练:使用机器学习或深度学习技术构建一个预测模型;模型评估:使用预测模型预测视频内容的注视点,将预测的注视点与采集的观众真实注视点进行比对,拟合度越高则表示预测越精准;然而每个观众均是一个有机的个体,有不同的注意力,模型评估过程中采集到的观众注视点受观众个人因素影响,如观众在观看视频过程中出现情感波动、注意力分散,视觉疲劳等现象时其注视点并非正常状态时的真实注视点,以采集到的错误注视点来评估预测模型的精准度无疑得不到正确的结果,如何避免受观众个人因素影响,采集到客观真实的数据来对注视点预测模型进行验证评估是本领域技术人员亟待解决的问题。
中国专利申请公开号:CN111339878A公开了一种基于眼动数据的修正型实时情感识别方法及系统,该专利在VR环境中实时采集眼动数据,利用眼动数据进行注视点预测;但并未消除因观众个人因素对预测结果造成的影响。
发明内容
为了克服背景技术中的不足,本发明公开了一种注视点预测模型的检验方法及装置。
为实现上述发明目的,本发明采用如下技术方案:
一种注视点预测模型的检验方法,包含以下步骤:
S1、获取多名观众分别通过检验装置观看注视点测试视频的眼动信息,所述注视点测试视频包括验证视频序列和检验视频,其中在验证视频序列中相邻两个验证视频之间插入检验视频,所述检验视频用于表征观众的注意力;
S2、通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,并求出所述向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。
具体的,所述注视点测试视频包括两个注视点测试序列,分为第一注视点序列视频和第二注视点视频序列;使用洗牌算法将验证视频序列进行两次排序,分为第一序列视频和第二序列视频,并分别在第一序列视频和第二序列视频中相邻两个验证视频之间插入检验视频形成第一注视点序列视频、第二注视点序列视频。
具体的,所述检验视频内容为在纯色背景中设置按预定轨迹移动或跳动的目标。
具体的,所述步骤S2中通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力具体为:通过观众观看检验视频时的眼动信息与检验视频中目标轨迹进行比对,若轨迹吻合则判定观众注意力集中,反之则判定观众注意力分散。
具体的,所述步骤S2具体为:通过观众观看注视点测试视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,将得出的向量长度按第一注视点序列视频和第二注视点序列视频分为两组,并分别求出两组向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。
具体的,在所述验证视频中随机插入干扰视频,干扰视频内容为在检验视频的基础上设置多个目标。
第二方面,本发明的另一个实施例公开了一种注视点预测模型的检验方法使用的检验装置,包含隔音舱、显示装置和眼动信息采集装置;所述隔音舱内一侧设有用于播放视频的显示装置,对应该显示装置的上方设有眼动信息采集装置,隔音舱内另一侧设有座椅。
具体的,所述隔音舱内设有能够组成5.1声道或7.1声道的音频播放系统。
具体的,所述显示装置与眼动信息采集装置之间设有遮光板。
具体的,所述隔音舱内设有遮光帘,隔音舱内设有色温及亮度可调的照明装置。
本发明公开的一种注视点预测模型的检验方法,通过在注视点预测模型预测的验证视频中随机插入注意力检验的校验视频,从而排除注意力不集中时的前后两个验证视频的眼动信息,以消除检验者个人注意力不集中对校验结果的影响,从而有效提升检验结果的准确度;
进一步的,通过排序算法将验证视频顺序打乱能够采集观众针对同一验证视频的两次眼动信息,且第一序列视频和第二序列视频的播放顺序不同,降低观众对视频内容的记忆程度,提升随机性,避免受到观众个人的影响;
进一步的,通过对检验者进行注意力检测,能够判定相应观众当前状态是否适合进行注视点预测模型的检验;
进一步的,使检验者坐在隔音舱内观看检验视频和验证视频,避免外界环境对检验者造成干扰,影响检验结果的准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例提供的一种注视点预测模型的检验方法流程图;
图2是根据本发明实施例提供的一种注视点预测模型的检验装置示意图;
1-隔音舱;2-显示装置;3-眼动信息采集装置;4-座椅。
具体实施方式
通过下面的实施例可以详细的解释本发明,公开本发明的目的旨在保护本发明范围内的一切技术改进,在本发明的描述中,需要理解的是,若有术语“上”、“下”、“前”、“后”、“左”、“右”等指示的方位或位置关系,仅是与本申请的附图对应,为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位。
实施例一
参考图1,根据本实施例公开了一种注视点预测模型的检验方法,其包含以下步骤:
S1、获取多名观众分别通过检验装置观看注视点测试视频的眼动信息,所述注视点测试视频包括验证视频序列和检验视频,其中在验证视频序列中相邻两个验证视频之间插入检验视频,所述检验视频用于表征观众的注意力;
具体的,本实施例的检验装置为眼动仪等设备采集观众的眼动信息,通过眼动仪来采集眼动信息属于公知技术,本实施例不再赘述。
本实施例的检验视频用于表征观众的注意力,具体的,可以在校验视频中预制一预定轨迹移动的目标,然后采集观众观看校验视频的眼动信息,根据采集观众观看校验视频的眼动信息与预定轨迹移动目标的轨迹进行比对,从而来判断观众的注意力。
具体的,本实施例的校验视频为在纯色背景中设置按预定轨迹移动或跳动的目标,将观众的眼动信息与检验视频中目标轨迹进行比对,若轨迹吻合则判定观众注意力集中,反之则判定观众注意力分散。
检验视频中目标的移动轨迹包含由中心向其中一个角端移动,由一则向另一侧移动,由上至下或由下至上移动,沿逆时针或顺时针移动,或在一个位置消失后出现在另一个位置,检验视频中目标的移动轨迹包含上移移动轨迹中的一种或多种随机排列;通过目标移动或闪现,吸引观众的注意力,使观众的注视点能够随目标移动,便于分析采集到的眼动信息。
具体的,本实施例的注视点测试视频包含一个检验视频。在另一个实施方式中,为了减少观众重复观察同一个校验视频带来的视觉疲劳,也可以包含多个校验视频,每一个校验视频的目标移动轨迹不相同。进一步的,本实施例可以随机将所述多个校验视频随机插到所述验证视频序列中相邻两个验证视频之间。
在一个实施方式中,本实施例的验证视频序列包含五个,序号依次为Y1~Y5,校验视频为一个O1;将所述校验视频插到所述验证视频序列中相邻连个验证视频之间,所述注视点测试视频为Y1,O1,Y2,O1,Y3,O1,Y4,O1,Y5。
在另一个实施方式中,所述校验视频为多个,如O1,O2;所述O1、O2的目标的移动轨迹不相同,如校验视频O1的目标移动轨迹为由上至下或由下至上移动,校验视频O2的目标移动估计为在一个位置消失后出现在另一个位置;将所述多个校验视频随机插到所述验证视频序列中相邻连个验证视频之间,所述注视点测试视频为Y1,O1,Y2,O2,Y3,O2,Y4,O1,Y5。
本实施例将检验视频插入在相邻的两个验证视频之间,观众通过检测装置观看注视点测试视频过程中也会观看检验视频,同时实时采集观众验证视频与检验视频时的眼动信息。
具体的,本实施例的注视点测试视频包括2个注视点测试序列,分为第一注视点序列视频和第二注视点视频序列;
本实施使用洗牌算法将验证视频序列进行两次排序,分为第一序列视频和第二序列视频,并分别在第一序列视频和第二序列视频中相邻两个验证视频之间插入检验视频形成第一注视点序列视频、第二注视点序列视频。
在一个实施方式中,本实施例的验证视频序列包含五个,序号依次为Y1~Y5,校验视频为一个O1;通过洗牌算法生成的两个序列分别为Y2、Y1、Y3、Y5、Y4和Y1、Y3、Y4、Y5、Y2;然后将校验视频O1插到两个序列视频中相邻两个验证时间之间,形成Y2,O1,Y1,O1,Y3,O1,Y5,O1,Y4和Y1,O1,Y3,O1,Y4,O1,Y5,O1,Y2两个注视点序列视频。
在另一个实施方式中,所述校验视频为多个时,将所述多个校验视频随机插到所述第一序列视频、第二序列视频中形成两个注视点序列视频。
本实施例通过洗牌算法将验证视频顺序打乱能够采集观众针对同一验证视频的两次眼动信息,且第一序列视频和第二序列视频的播放顺序不同,降低观众对视频内容的记忆程度,提升随机性,避免受到观众个人的影响;在相邻两个验证视频之间插入检验视频,能够避免观众注意力分散影响检验结果;
S2、通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,并求出所述向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。
进一步在所述注视点测试视频包括两个注视点测试序列视频时,通过观众观看注视点测试视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,将得出的向量长度按第一注视点序列视频和第二注视点序列视频分为两组,并分别求出两组向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。
具体的,所述步骤S2中通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力具体为:通过观众观看检验视频时的眼动信息与检验视频中目标轨迹进行比对,若轨迹吻合则判定观众注意力集中,反之则判定观众注意力分散。
检测视频中通过目标移动或闪现,吸引观众的注意力,使观众的注视点能够随目标移动,便于分析采集到的眼动信息,并能判定相应观众当前状态是否适合进行注视点预测模型的检验;
进一步的,逐一分析观众观看检验视频时的眼动信息,判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息,即观众在观看验证视频时会因个人情感问题出现注意力分散的现象,如对验证视频内容产生深度思考而发呆,或对验证视频内容缺乏兴趣观看过程中出现困倦等,注意力分散则会导致采集的眼动信息错误,影响检验结果,故将其舍弃;
进一步的,通过检验装置播放检验视频,并在观众观看检验视频时采集观众的眼动信息,也可达到进行注意力检测的目的;
进一步的,将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,将得出的向量长度按第一注视点序列视频和第二注视点序列视频分为两组,并分别求出两组向量长度数据的均值及方差,均值及方差越小则注视点预测模型的预测精准度越高。
本实施例公开的一种注视点预测模型的检验方法,通过在注视点预测模型预测的验证视频中随机插入注意力检验的校验视频,从而排除注意力不集中时的前后两个验证视频的眼动信息,以消除检验者个人注意力不集中对校验结果的影响,从而有效提升检验结果的准确度;
进一步的,通过排序算法将验证视频顺序打乱能够采集观众针对同一验证视频的两次眼动信息,且第一序列视频和第二序列视频的播放顺序不同,降低观众对视频内容的记忆程度,提升随机性,避免受到观众个人的影响。
实施例二
本实施例公开了另一种注视点预测模型的检验方法,与实施例一的不同之处在于:在实施例一的基础上,在所述验证视频中随机插入干扰视频;在所述注视点测试视频包括2个注视点序列视频时,在第一序列视频和第二序列视频中分别随机插入干扰视频;
具体的,在所述第一序列视频和第二序列视频中分别随机插入干扰视频,干扰视频内容为在检验视频的基础上设置多个目标。
进一步的,干扰视频内容为在检验视频的基础上设置多个目标,通过多个目标对观众进行干扰,调动观众注视点转换的积极性,避免观众长时间观看视频后产生视觉疲劳,或降低积极性,而对后续检验视频的检验结果造成影响,在播放干扰视频时无需采集观众的眼动信息;
具体的,所述检验视频中的目标为随机变换图形。
进一步的,所述检验视频中的目标为随机变换图形,即目标能够为图形内容的随机变换或色彩的随机变换,降低观众的视觉疲劳;
具体的,所述检验视频和验证视频均为有声视频。
此外,所述检验视频和验证视频均为有声视频,即观众不但能从检验视频和验证视频的视频内容中寻找注视点,也能利用听觉寻找注视点,更加贴近实际,提升检验结果的准确度。
实施例三
参考图2,本发明的另一个实施例公开了一种注视点预测模型的检验方法使用的装置,包含隔音舱、显示装置和眼动信息采集装置;所述隔音舱内一侧设有用于播放视频的显示装置,对应该显示装置的上方设有眼动信息采集装置,隔音舱内另一侧设有座椅。
检验装置包含隔音舱1、显示装置2和眼动信息采集装置3;所述隔音舱1内一侧设有用于播放视频的显示装置2,对应该显示装置2的上方设有眼动信息采集装置3,并对眼动信息采集装置3作隐藏处理,避免观众出于好奇或其他因素影响注视眼动信息采集装置3,从而使观众的目光始终保持在显示装置2上,隔音舱1内另一侧设有座椅4;即能够使检验者坐在隔音舱1内观看检验视频和验证视频,避免外界环境对检验者造成干扰,影响检验结构的准确度。
具体的,本实施例对眼动信息采集装置的具体结构不做限定,数据获取模块可以眼动仪器等设备,当然,也可以是其他形式,只需能完成眼动信息采集即可,此处不再赘述。
具体的,所述隔音舱内设有能够组成5.1声道或7.1声道的音频播放系统。
进一步的,所述隔音舱内设有能够组成5.1声道或7.1声道的音频播放系统,即音频播放系统能够提升观众的观看体验,通过声场的变化验证对观看内容的理解,有助于使检验者注意力集中,降低检验者个人因素对检验结果的影响;
具体的,所述显示装置与眼动信息采集装置之间设有遮光板。
进一步的,所述显示装置与眼动信息采集装置之间设有遮光板,避免显示装置发出光线明暗强度变化影响眼动信息采集装置的正常工作;
具体的,所述隔音舱内设有遮光帘,隔音舱内设有色温及亮度可调的照明装置。
进一步的,所述隔音舱内设有遮光帘,隔音舱内设有色温及亮度可调的照明装置,即能够进一步消除外界因素对检验者的影响,通过对照明装置色温及亮度的调整能够进一步提升观众的观感体验,使观众的注意力集中在检验视频或验证视频的内容中,从而能够进一步提升检验结果的精准度。
本检测装置从视觉、听觉、明暗变化、色温及亮度等多方面考虑,进一步消除了外界因素对检验者的影响,使检验者通过本检验装置观看检验视频和验证视频,可避免外界环境对检验者造成干扰,影响检验结果的准确度。
本发明未详述部分为现有技术,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明;因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,旨在将落在等同要件的含义和范围内的所有变化囊括在本发明内。
Claims (8)
1.一种注视点预测模型的检验方法,其特征在于:包含以下步骤:
S1、获取多名观众分别通过检验装置观看注视点测试视频的眼动信息,所述注视点测试视频包括验证视频序列和检验视频,其中在验证视频序列中相邻两个验证视频之间插入检验视频,所述检验视频用于表征观众的注意力;
S2、通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,并求出所述向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度;
所述步骤S2中通过观众观看所述注视点测试视频中检验视频时的眼动信息判定观众的注意力具体为:所述检验视频内容为在纯色背景中设置按预定轨迹移动或跳动的目标,通过观众观看检验视频时的眼动信息与检验视频中目标轨迹进行比对,若轨迹吻合则判定观众注意力集中,反之则判定观众注意力分散。
2.根据权利要求1所述的方法,其特征在于:所述注视点测试视频包括两个注视点测试序列,分为第一注视点序列视频和第二注视点视频序列;使用洗牌算法将验证视频序列进行两次排序,分为第一序列视频和第二序列视频,并分别在第一序列视频和第二序列视频中相邻两个验证视频之间插入检验视频形成第一注视点序列视频、第二注视点序列视频。
3.根据权利要求2所述的方法,其特征在于:所述步骤S2具体为:通过观众观看注视点测试视频时的眼动信息判定观众的注意力,若观众出现注意力分散,则舍弃观众在注意力分散时前后两个验证视频的眼动信息;将保留的眼动信息转换为实际注视点坐标,分别计算注视点预测模型预测的注视点坐标与实际注视点坐标之间的向量长度,将得出的向量长度按第一注视点序列视频和第二注视点序列视频分为两组,并分别求出两组向量长度数据的均值及方差,根据所述均值及方差判断所述注视点预测模型的精确度。
4.根据权利要求1所述的方法,其特征在于:在所述验证视频中随机插入干扰视频,干扰视频内容为在检验视频的基础上设置多个目标。
5.根据权利要求1所述的注视点预测模型的检验方法使用的检验装置,其特征在于:包含隔音舱、显示装置和眼动信息采集装置;所述隔音舱内一侧设有用于播放视频的显示装置,对应该显示装置的上方设有眼动信息采集装置,隔音舱内另一侧设有座椅。
6.根据权利要求5所述的装置,其特征在于:所述隔音舱内设有能够组成5.1声道或7.1声道的音频播放系统。
7.根据权利要求5所述的装置,其特征在于:所述显示装置与眼动信息采集装置之间设有遮光板。
8.根据权利要求5所述的装置,其特征在于:所述隔音舱内设有遮光帘,隔音舱内设有色温及亮度可调的照明装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310994167.3A CN116719418B (zh) | 2023-08-09 | 2023-08-09 | 一种注视点预测模型的检验方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310994167.3A CN116719418B (zh) | 2023-08-09 | 2023-08-09 | 一种注视点预测模型的检验方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116719418A CN116719418A (zh) | 2023-09-08 |
CN116719418B true CN116719418B (zh) | 2023-10-27 |
Family
ID=87873765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310994167.3A Active CN116719418B (zh) | 2023-08-09 | 2023-08-09 | 一种注视点预测模型的检验方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116719418B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012196279A (ja) * | 2011-03-18 | 2012-10-18 | Waseda Univ | 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム |
WO2020236331A2 (en) * | 2019-04-10 | 2020-11-26 | Research Foundation Of The City University Of New York | Method for assessment of audience attention |
CN114578975A (zh) * | 2022-05-09 | 2022-06-03 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪设备的注视点质量评测方法及系统 |
CN114616598A (zh) * | 2020-10-09 | 2022-06-10 | 谷歌有限责任公司 | 使用眼睛注视数据的文本布局解释 |
CN114898447A (zh) * | 2022-07-13 | 2022-08-12 | 北京科技大学 | 一种基于自注意力机制的个性化注视点检测方法及装置 |
CN115147819A (zh) * | 2022-07-07 | 2022-10-04 | 西安电子科技大学 | 基于注视点预测模型的驾驶员注视点预测方法 |
CN115393946A (zh) * | 2022-10-11 | 2022-11-25 | 齐鲁工业大学 | 基于眼动注意力的视觉信息识别方法、系统、介质及设备 |
CN115844402A (zh) * | 2022-12-23 | 2023-03-28 | 京东方科技集团股份有限公司 | 注意力预测方法、装置、电子设备及计算机可读存储介质 |
CN116188954A (zh) * | 2022-12-09 | 2023-05-30 | 北京鉴智科技有限公司 | 目标检测算法在线评估方法、系统和电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8636361B2 (en) * | 2011-07-20 | 2014-01-28 | National Taiwan University | Learning-based visual attention prediction system and method thereof |
AU2013307970A1 (en) * | 2012-08-27 | 2015-03-12 | Thomson Licensing | Method and apparatus for estimating content complexity for video quality assessment |
CN106557765A (zh) * | 2015-09-29 | 2017-04-05 | 欧姆龙株式会社 | 注意检测装置以及注意检测方法 |
US11032607B2 (en) * | 2018-12-07 | 2021-06-08 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for embedding visual advertisements in video content |
US20200311392A1 (en) * | 2019-03-27 | 2020-10-01 | Agt Global Media Gmbh | Determination of audience attention |
WO2022052084A1 (en) * | 2020-09-14 | 2022-03-17 | Huawei Technologies Co., Ltd. | Methods, systems, and media for context-aware estimation of student attention in online learning |
-
2023
- 2023-08-09 CN CN202310994167.3A patent/CN116719418B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012196279A (ja) * | 2011-03-18 | 2012-10-18 | Waseda Univ | 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム |
WO2020236331A2 (en) * | 2019-04-10 | 2020-11-26 | Research Foundation Of The City University Of New York | Method for assessment of audience attention |
CN114616598A (zh) * | 2020-10-09 | 2022-06-10 | 谷歌有限责任公司 | 使用眼睛注视数据的文本布局解释 |
CN114578975A (zh) * | 2022-05-09 | 2022-06-03 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪设备的注视点质量评测方法及系统 |
CN115147819A (zh) * | 2022-07-07 | 2022-10-04 | 西安电子科技大学 | 基于注视点预测模型的驾驶员注视点预测方法 |
CN114898447A (zh) * | 2022-07-13 | 2022-08-12 | 北京科技大学 | 一种基于自注意力机制的个性化注视点检测方法及装置 |
CN115393946A (zh) * | 2022-10-11 | 2022-11-25 | 齐鲁工业大学 | 基于眼动注意力的视觉信息识别方法、系统、介质及设备 |
CN116188954A (zh) * | 2022-12-09 | 2023-05-30 | 北京鉴智科技有限公司 | 目标检测算法在线评估方法、系统和电子设备及存储介质 |
CN115844402A (zh) * | 2022-12-23 | 2023-03-28 | 京东方科技集团股份有限公司 | 注意力预测方法、装置、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116719418A (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jackson et al. | Advance visual information, awareness, and anticipation skill | |
CN112036299B (zh) | 标准考场环境下的考试作弊行为检测方法及系统 | |
Rousselet et al. | How long to get to the “gist” of real-world natural scenes? | |
CN102483851B (zh) | 用于突起面部特征识别的方法和装置 | |
US20130021578A1 (en) | Learning-based visual attention prediction system and method thereof | |
CN106919922A (zh) | 一种防作弊远程考试系统 | |
Heinen et al. | Judging performance in gymnastics: a matter of motor or visual experience? | |
Vachiratamporn et al. | An implementation of affective adaptation in survival horror games | |
WO2016083826A1 (en) | Facial exercise system | |
Nyman et al. | The distance threshold of reliable eyewitness identification. | |
Put et al. | Faster, slower or real time? Perceptual-cognitive skills training with variable video speeds | |
CN116719418B (zh) | 一种注视点预测模型的检验方法及装置 | |
CN107027067B (zh) | 获取mv视频资源中字幕信息的方法及系统 | |
CN109009094B (zh) | 基于脑电信号kc复杂度的视觉诱导晕动症检测方法 | |
CN109498038B (zh) | 自闭症评估方法及装置 | |
CN115204678A (zh) | 一种基于景区旅游平台的旅游评价分析系统 | |
KR101989964B1 (ko) | 대중 감성 검출 방법 이를 적용하는 시스템 | |
Cañal-Bruland | Guiding visual attention in decision making—Verbal instructions versus flicker cueing | |
CN112686926B (zh) | 一种复杂光影条件下的彩色球体运动检测方法及系统 | |
CN109887000A (zh) | 注意追踪策略的识别方法、训练方法及其装置 | |
CN108766575A (zh) | 一种评测智力发育的方法及装置 | |
Cacciatori et al. | On Developing Facial Stress Analysis and Expression Recognition Platform | |
Kerdvibulvech | Real-time augmented reality application using color analysis | |
CN110555823B (zh) | 一种基于tvl结构纹理分解的图像融合质量评价方法 | |
CN117056793A (zh) | 一种注意力水平监控及预测方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |