CN109785403A - 一种基于眼跳信息的热度图生成方法 - Google Patents
一种基于眼跳信息的热度图生成方法 Download PDFInfo
- Publication number
- CN109785403A CN109785403A CN201811570928.8A CN201811570928A CN109785403A CN 109785403 A CN109785403 A CN 109785403A CN 201811570928 A CN201811570928 A CN 201811570928A CN 109785403 A CN109785403 A CN 109785403A
- Authority
- CN
- China
- Prior art keywords
- temperature
- twitching
- blinkpunkt
- eyelid
- generating method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 206010028347 Muscle twitching Diseases 0.000 title claims abstract description 32
- 210000000744 eyelid Anatomy 0.000 title claims abstract description 32
- 238000012546 transfer Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000007796 conventional method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及计算机可视化技术领域,具体涉及一种基于眼跳信息的热度图生成方法,包括以下步骤:S1输入原始注视点;S2对注视点数据预处理去除错误数据;S3将预处理后的注视点进行合并操作;S4将合并后的注视点参数化处理转换为眼跳类型数据;S5将参数化后的注视点生成有效的热度图;本发明使用了注视点和眼跳的混合数据结构,并添加了针对眼跳类型数据的热度图变形方法。使用本发明方法生成的热度图在保持原有的显示注视区域的功能的基础上,具有了很好的指示注视区域转移的路径的功能,具有很强的创造性。
Description
技术领域
本发明涉及计算机可视化技术领域,具体涉及一种基于眼跳信息的热度图生成方法。
背景技术
热度图是眼动数据分析与可视化的重要工具。
等人提出了使用线性、正弦或高斯模型来生成热度图的方法,考虑了敏感度、亮度、隐藏度等参数对热度图效果的影响,后面的许多工作都是在此基础上做的改进。Blignaut的热度图生成方法主要侧重于如何让热度图更贴近眼睛注视的情况,并且还给出了颜色映射的具体方法。
上述传统方法可以十分直观地表达出观察者所注视的区域,但忽略了表达注视点转移的眼跳的信息,无法体现观察者的注视路径。
发明内容
针对现有技术的不足,本发明公开了一种基于眼跳信息的热度图生成方法,使用本发明方法生成的热度图在保持原有的显示注视区域的功能的基础上,具有了很好的指示注视区域转移的路径的功能。
本发明通过以下技术方案予以实现:
一种基于眼跳信息的热度图生成方法,其特征在于:所述方法包括以下步骤:
S1输入原始注视点;
S2对注视点数据预处理去除错误数据;
S3将预处理后的注视点进行合并操作;
S4将合并后的注视点参数化处理转换为眼跳类型数据;
S5将参数化后的注视点生成有效的热度图。
优选的,所述S4中,所述眼跳类型数据用矢量表示。
优选的,所述S5中,所述热度图的生成方法为:
S51首先生成单位注视点的热度图;
S52根据当前眼跳的矢量v,对单位热度图做变形处理;
S53将S52中的热度图叠加到合适的位置;
S54将图像的值的范围映射到[0,255],生成有效的热度图。
优选的,所述单位热度图做变形处理的方法为,首先对单位热度图先进行两个垂直方向上的缩放,然后旋转改变角度,最后再进行平移。
优选的,所述S5中,生成热度图的公式为:
amajor=2R+||v||
其中v=(vx,vy)代表眼跳的矢量,||v||为其长度,gk-1、gk为注视点。R代表单位热度图的半径。amajor、aminor、θ分别代表从单位热度图变形为椭圆的长轴长度、短轴长度和旋转角度。
本发明的有益效果为:
本发明使用了注视点和眼跳的混合数据结构,并添加了针对眼跳类型数据的热度图变形方法。使用本发明方法生成的热度图在保持原有的显示注视区域的功能的基础上,具有了很好的指示注视区域转移的路径的功能,具有很强的创造性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的流程框图;
图2是本发明实施例中热度图的生成方法流程框图;
图3是本发明眼动数据类型示意图;
图4是本发明由眼跳矢量v生成变形的热度图的过程图;
图5是传统方法与本文方法的对比图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示的一种基于眼跳信息的热度图生成方法,所述方法包括以下步骤:
S1输入原始注视点;
S2对注视点数据预处理去除错误数据;
S3将预处理后的注视点进行合并操作;
S4将合并后的注视点参数化处理转换为眼跳类型数据(参见图3);
S5将参数化后的注视点生成有效的热度图。
S4中,所述眼跳类型数据用矢量表示。
如图2所示的热度图的生成方法为:
S51首先生成单位注视点的热度图;
S52根据当前眼跳的矢量v,对单位热度图做变形处理;
S53将S52中的热度图叠加到合适的位置;
S54将图像的值的范围映射到[0,255],生成有效的热度图。
单位热度图做变形处理的方法为,首先对单位热度图先进行两个垂直方向上的缩放,然后旋转改变角度,最后再进行平移。
如图4所示的由眼跳矢量v生成变形的热度图,生成热度图的公式为:
amajor=2R+||v||
其中v=(vx,vy)代表眼跳的矢量,||v||为其长度,gk-1、gk为注视点。R代表单位热度图的半径。amajor、aminor、θ分别代表从单位热度图变形为椭圆的长轴长度、短轴长度和旋转角度。
实施例2
由图5示传统方法与本文方法的对比图,统方法(第一行)与本文方法(第二行)的对比,当注视点运动较慢时,本文方法与传统方法显示效果的区别不大;当注视点快速移动时,传统方法中的点比较分散,缺乏连贯性;而本文方法则能清晰地显示出注视点的运动轨迹。本文方法在短时动态场景中的优势更为明显。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (5)
1.一种基于眼跳信息的热度图生成方法,其特征在于:所述方法包括以下步骤:
S1输入原始注视点;
S2对注视点数据预处理去除错误数据;
S3将预处理后的注视点进行合并操作;
S4将合并后的注视点参数化处理转换为眼跳类型数据;
S5将参数化后的注视点生成有效的热度图。
2.根据权利要求1所述的基于眼跳信息的热度图生成方法,其特征在于:所述S4中,所述眼跳类型数据用矢量表示。
3.根据权利要求1所述的基于眼跳信息的热度图生成方法,其特征在于:所述S5中,所述热度图的生成方法为:
S51首先生成单位注视点的热度图;
S52根据当前眼跳的矢量v,对单位热度图做变形处理;
S53将S52中的热度图叠加到合适的位置;
S54将图像的值的范围映射到[0,255],生成有效的热度图。
4.根据权利要求3所述的基于眼跳信息的热度图生成方法,其特征在于:所述单位热度图做变形处理的方法为,首先对单位热度图先进行两个垂直方向上的缩放,然后旋转改变角度,最后再进行平移。
5.根据权利要求1所述的基于眼跳信息的热度图生成方法,其特征在于:所述S5中,生成热度图的公式为:
amajor=2R+||v||
其中v=(vx,vy)代表眼跳的矢量,||v||为其长度,gk-1、gk为注视点;R代表单位热度图的半径;amajor、aminor、θ分别代表从单位热度图变形为椭圆的长轴长度、短轴长度和旋转角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570928.8A CN109785403A (zh) | 2018-12-21 | 2018-12-21 | 一种基于眼跳信息的热度图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570928.8A CN109785403A (zh) | 2018-12-21 | 2018-12-21 | 一种基于眼跳信息的热度图生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109785403A true CN109785403A (zh) | 2019-05-21 |
Family
ID=66497526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811570928.8A Pending CN109785403A (zh) | 2018-12-21 | 2018-12-21 | 一种基于眼跳信息的热度图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109785403A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348296A (zh) * | 2019-05-30 | 2019-10-18 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102520796A (zh) * | 2011-12-08 | 2012-06-27 | 华南理工大学 | 一种基于逐步回归分析映射模型的视线跟踪方法 |
CN107256225A (zh) * | 2017-04-28 | 2017-10-17 | 济南中维世纪科技有限公司 | 一种基于视频分析的热度图生成方法及装置 |
-
2018
- 2018-12-21 CN CN201811570928.8A patent/CN109785403A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102520796A (zh) * | 2011-12-08 | 2012-06-27 | 华南理工大学 | 一种基于逐步回归分析映射模型的视线跟踪方法 |
CN107256225A (zh) * | 2017-04-28 | 2017-10-17 | 济南中维世纪科技有限公司 | 一种基于视频分析的热度图生成方法及装置 |
Non-Patent Citations (1)
Title |
---|
ZHUO YANG 等: "Directional Heat Map Generation with Saccade Information", 《SA ’18 POSTERS》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348296A (zh) * | 2019-05-30 | 2019-10-18 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
CN110348296B (zh) * | 2019-05-30 | 2022-04-12 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bhat et al. | Zoedepth: Zero-shot transfer by combining relative and metric depth | |
Xie et al. | Moving object segmentation and detection for robust RGBD-SLAM in dynamic environments | |
Maurer et al. | Proflow: Learning to predict optical flow | |
US11637986B2 (en) | Method and apparatus for interpolating frame to video, and electronic device | |
CN104766059A (zh) | 快速精确的人眼定位方法及基于人眼定位的视线估计方法 | |
CN110443205A (zh) | 一种手部图像分割方法及装置 | |
EP2966616B1 (en) | Method and apparatus for tracking superpixels between related images | |
Li et al. | Learning symmetry consistent deep cnns for face completion | |
Huang et al. | Event-guided structured output tracking of fast-moving objects using a celex sensor | |
Al-Rahayfeh et al. | Enhanced frame rate for real-time eye tracking using circular hough transform | |
Liu et al. | Asflow: Unsupervised optical flow learning with adaptive pyramid sampling | |
CN109785403A (zh) | 一种基于眼跳信息的热度图生成方法 | |
Chen et al. | DDOD: Dive deeper into the disentanglement of object detector | |
Zhang et al. | Spatial-information Guided Adaptive Context-aware Network for Efficient RGB-D Semantic Segmentation | |
Miao et al. | Ds-depth: Dynamic and static depth estimation via a fusion cost volume | |
Alkaddour et al. | Self-supervised approach for facial movement based optical flow | |
CN110032270B (zh) | 一种基于手势识别的人机交互方法 | |
Liu et al. | CamType: assistive text entry using gaze with an off-the-shelf webcam | |
Li et al. | Adaptive weighted CNN features integration for correlation filter tracking | |
Zhang et al. | A robust visual odometry based on RGB-D camera in dynamic indoor environments | |
Hadviger et al. | Stereo dense depth tracking based on optical flow using frames and events | |
Guan et al. | Multistage pixel-visibility learning with cost regularization for multiview stereo | |
EP3467637B1 (en) | Method, apparatus and system for displaying image | |
CN109445595A (zh) | 一种虚拟现实设备及其驱动方法 | |
Li et al. | Spatially variant biases considered self-supervised depth estimation based on laparoscopic videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190521 |
|
RJ01 | Rejection of invention patent application after publication |