CN106169063B - 一种自动识别用户阅读兴趣区的方法 - Google Patents

一种自动识别用户阅读兴趣区的方法 Download PDF

Info

Publication number
CN106169063B
CN106169063B CN201610461260.8A CN201610461260A CN106169063B CN 106169063 B CN106169063 B CN 106169063B CN 201610461260 A CN201610461260 A CN 201610461260A CN 106169063 B CN106169063 B CN 106169063B
Authority
CN
China
Prior art keywords
reading
user
reading area
area
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610461260.8A
Other languages
English (en)
Other versions
CN106169063A (zh
Inventor
袁银池
王秀红
倪华
张梦雅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201610461260.8A priority Critical patent/CN106169063B/zh
Publication of CN106169063A publication Critical patent/CN106169063A/zh
Application granted granted Critical
Publication of CN106169063B publication Critical patent/CN106169063B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种自动识别用户阅读兴趣区的方法,通过眼动仪实时抓取用户阅读时的访问时间、注视次数、瞳孔直径等指标,并结合利用回视次数的关系矩阵,自动挖掘用户阅读的关注点和兴趣所在。本发明提高了用户阅读兴趣识别的准确度和针对性,可应用于识别用户的阅读兴趣,从而给用户更准确地推送其所感兴趣的阅读内容。

Description

一种自动识别用户阅读兴趣区的方法
技术领域
本发明属于用户心理学和信息学领域,具体涉及基于用户阅读心理和阅读行为分析的用户兴趣发现技术。
背景技术
用户对内容的关注点或兴趣,体现为他们某一方面的需求。Cho-Wei Shih等提出的信息需求雷达模型,量化了内容的需求程度。为帮助用户区分关注点,方便阅读,国家知识产权局在专利文献查看页面中,利用了高亮、高密、聚焦功能;针对用户兴趣的表达,缪涵琴开发出融合本体和用户兴趣的专利信息检索系统,并设计了专利检索领域本体、国际专利分类表和用户兴趣模型的本体表示。
眼动技术是一种可靠、有效的方法,可分析读者在阅读过程中的注意力分配情况。浏览、访问或阅读中的眼动研究可充分挖掘用户潜在需求,其已在网站可用性、软硬件测试、教学研究、交互研究及广告研究等方面得到广泛的应用。
现有研究往往通过用户浏览点击下载等来发现有用户的阅读兴趣,也有仅利用用户阅读过程中注视、凝视时间指标来计算用户的阅读兴趣,不能很好地挖掘用户的兴趣和需求所在,缺少一个一般地有效准确地识别用户阅读兴趣区的方法。
本发明为国家自然科学基金青年项目“专利文献的要素组合拓朴结构及向量空间语义表示与相似度计算研究”(项目编号:71403107),中国博士后科学基金第七批特别资助项目“综合位置和语义的专利文献核函数构造及相似度计算研究”(项目编号:2014T70491)的研究成果之一。
发明内容
本发明的目的在于提供一种自动识别用户阅读兴趣区的方法,为用户阅读兴趣区的识别提供一般方法,并提高识别的精准率和召回率。
为了解决以上技术问题,本发明采用的具体技术方案如下。
一种自动识别用户阅读兴趣区的方法,其特征在于包括以下步骤:
步骤一,采集用户阅读过程中眼动行为数据;
步骤二,清洗眼动行为数据
基于眼动速度识别的基准值算法,I-VT处理工具自动将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点;系统将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析,将低于持续时间基准值60ms的注视点去除不用于识别;
利用Tobii眼动仪自动将眼动行为数据中对瞳孔信息的识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据,得清洗后的眼动行为数据;
步骤三,确定阅读眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比;
步骤四,计算所述阅读眼动行为指标权重;
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域的兴趣度;
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,分为高兴趣区、一般兴趣区、低兴趣区;
步骤三中所述的访问时间为:从首次注视阅读区域至注视移出该区的时间片段,统计阅读区域中的所有注视点的持续时间之和,包含回视时间;
用户对阅读区域x的相对访问时间
t为所述用户对阅读区域x的总访问时间,Sx为阅读区域x的面积,用像素表示,t'为该用户对所有阅读区域的单位面积访问时间之和,即k为阅读区域总数;
所述的注视次数为:各阅读区域内的所述注视点的个数表示用户在该阅读区域的注视次数;当用户眼球对注视的内容加工结束时,出现眼跳,开始下一次注视;利用注视次数反映用户阅读的熟练程度、加工策略以及阅读材料对用户的难易程度,估计用户阅读兴趣;注视点即信息块,信息块愈多表明用户关注的机会愈多、理解的可能性愈大;
用户对阅读区域x的相对注视次数c为用户对阅读区域x的注视次数,c'为该用户对所有阅读区域的单位面积注视次数之和,即
所述瞳孔直径缩放比为:将用户在某一阅读区域内所有注视点的瞳孔直径的平均值作为平均瞳孔直径;所述的瞳孔直径是用户左眼瞳孔直径和右眼瞳孔直径的平均;将所述阅读区域内的平均瞳孔直径除以该阅读区域所在整篇阅读对象内的平均瞳孔直径,作为所述阅读区域的瞳孔直径缩放比;用户对阅读区域x的瞳孔直径缩放比e为用户在阅读区域x的平均瞳孔直径,e'为用户在整篇阅读对象内的平均瞳孔直径;
所述阅读眼动行为指标还包括相对回视次数;
用户对阅读区域x的相对回视次数ry为该用户对阅读区域x与阅读区域y之间的回视次数,r为该用户对所有阅读区域的回视次数,Iy'为该用户对阅读区域y不考虑相对回视次数时的兴趣度,q为该用户对阅读区域x有回视关系的其他阅读区域数;
所述回视次数为:眼跳是注视之间飞快的扫视动作;所述回视是指回溯性的眼跳,是指用户在对阅读区域的第一遍注视后,对该阅读区域进行再阅读;用回溯性的眼跳和眼跳路线揭示用户对所述阅读区域的内容对照和兴趣联系的情况;所述回视次数包括回视出次数和回视入次数;所述回视出次数指注视点从所述阅读区域移出到其它区域的次数;回视入次数指注视点从其它区域移入到所述阅读区域的次数;
用户对阅读区域的兴趣度的具体过程如下:
下标y表示不同于x的一个阅读区域,k为阅读区域总数;
Iy'表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度;
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的兴趣度。
所述步骤一的具体过程如下:
利用TobiiStudio眼动仪记录用户阅读过程中眼动行为,所述眼动行为数据包括刺激材料名称、记录的时间、阅读区域面积、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、眼动事件的持续时间、Hit;
所述Hit表示阅读区域激活及注视点在该阅读区域情况:0代表阅读区域被激活,但注视点未在阅读区域内,1代表阅读区域被激活且注视点在阅读区域内;
所述注视点为当所述眼动的速度低于基准值30°/s时,所述眼动的数据被标记成注视点。
所述步骤四中阅读眼动行为指标权重计算具体过程如下:
过程一,建立模糊互补矩阵F=(fij)n×n
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模糊互补矩阵F
过程二,建立模糊一致性矩阵P=(pij)n×n
对模糊互补矩阵F按行求和:变量m=1.2,...,n
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4);
在先不考虑相对回视次数的情况下,利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3);
所述方根法为i和j分别表示第i个指标和第j个指标;n表示指标的个数。
具体实施方式
下面结合具体实施例,对本发明的技术方案做进一步详细说明。
以专利文献为例,对江苏大学农业工程、计算机科学和流体机械三个学科领域的30位从事科研的老师和研究生的进行实验,以自动识别科研用户对专利文献的阅读兴趣区。
使用Tobii T60XL宽屏眼动仪采集数据。
计算机自动根据专利文献的元数据项将专利文献划分为以下12个阅读区域,如表1所示。
表1阅读区域与专利文献元数据项内容对照表
阅读区域x或y取值为1到12。
步骤一,采集用户阅读专利文献过程中的眼动行为数据,采集26位用户各阅读一篇专利文献的眼动数据,包括记录开始时间、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、Hit、阅读区域面积,相关定义如表2所示。
表2眼动行为数据解释
步骤二,清洗眼动行为数据,得清洗后的眼动行为数据:计算机系统自动去除采样率低于80%的4个用户的采集数据,以26个有效数据进行识别;基于眼动速度识别的基准值算法,使用I-VT处理工具将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点;将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析;将低于持续时间基准值60ms的注视点去除不用于识别;利用Tobii眼动仪自动将眼动行为数据根据识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据。
步骤三,汇总26位用户的数据,确定阅读专利文献眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比,结果如表3所示。
表3阅读专利文献眼动行为指标值
回视次数指标关系矩阵如表4所示。
表4专利文献阅读区域的回视次数关系矩阵
步骤四,计算所述专利文献阅读眼动行为指标权重,计算具体过程如下:
过程一,建立模糊互补矩阵
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模糊互补矩阵F:
过程二,建立模糊一致性矩阵
对模糊互补矩阵F按行求和:变量m=1.2,...,n
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵R,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4)=(0.3519,0.1816,0.2849,0.1816);
在先不考虑回视次数的情况下,利用模糊一致性矩阵R,通过方根法计算,得访问时间、注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3)=(0.4543,0.211,0.3347);
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域的兴趣度的具体过程如下:
下标y表示不同于x的一个阅读区域,k为阅读区域总数;
Iy'表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度,结果如表5所示。
表5兴趣度Iy'计算结果
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的兴趣度。用户对专利文献各阅读区的兴趣度Ix结果如表6所示。
表6最终兴趣度Ix计算结果
注:为了便于对比,兴趣度的数值同时扩大到原来的10倍。
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,高感兴趣区、一般感兴趣区和低感兴趣区的兴趣度数值分别排在前25%,25%~70%(不包含25%)和70~100%(不包含70%)。从而识别用户高感兴趣区是AOI-3(名称、说明书摘要、摘要附图),AOI-5(独立权利要求)和AOI-6(从属权利要求);一般兴趣区域是AOI-9(技术方案),AOI-8(发明目的),AOI-11(具体实施方式),AOI-7(技术领域、背景技术)和AOI-10(有益效果);低兴趣区是AOI-2(申请人及地址、发明人),AOI-1(申请日、优先权数据),AOI-12(说明书附图)和AOI-4(法律状态)。
设置评价等级集K={满意,比较满意,一般,不满意}={1,0.8,0.5,0}。评价实验结果表明:26位用户对本申请的兴趣区识别效果评价如下:其中,评价为满意的用户16人,评价为比较满意的用户6人,评价为一般的用户3人,评价为不满意的用户1人。实验综合评分为0.858分,说明本申请的自动识别用户阅读兴趣区的方法精准率和召回率很好。

Claims (3)

1.一种自动识别用户阅读兴趣区的方法,其特征在于包括以下步骤:
步骤一,采集用户阅读过程中眼动行为数据;
步骤二,清洗眼动行为数据
基于眼动速度识别的基准值算法,I-VT处理工具自动将原始数据处理成注视点;当阅读区域变换的移动速度低于基准值30°/s时,数据被标记成注视点;系统将高于持续时间基准值60ms的注视点保留下来用于做进一步的分析,将低于持续时间基准值60ms的注视点去除不用于识别;
利用Tobii眼动仪自动将眼动行为数据中对瞳孔信息的识别准确度进行标识:代码0为准确值、代码1为估计值、代码2表示不确定值、代码3为数据缺失;剔除代码2、代码3所对应的数据值,只保留代码0和代码1对应的眼动行为数据,得清洗后的眼动行为数据;
步骤三,确定阅读眼动行为指标:相对访问时间、相对注视次数、瞳孔直径缩放比;
步骤四,计算所述阅读眼动行为指标权重;
步骤五,利用所述清洗后的眼动行为数据、阅读眼动行为指标、阅读眼动行为指标权重,计算用户对阅读区域的兴趣度;
步骤六,根据所述兴趣度的大小范围,判别用户感兴趣的阅读区域,从而识别用户阅读兴趣区,分为高兴趣区、一般兴趣区、低兴趣区;
步骤三中所述的访问时间为:从首次注视阅读区域至注视移出该区的时间片段,统计阅读区域中的所有注视点的持续时间之和,包含回视时间;
用户对阅读区域x的相对访问时间
t为所述用户对阅读区域x的总访问时间,Sx为阅读区域x的面积,用像素表示,t'为该用户对所有阅读区域的单位面积访问时间之和,即k为阅读区域总数;
所述的注视次数为:各阅读区域内的所述注视点的个数表示用户在该阅读区域的注视次数;当用户眼球对注视的内容加工结束时,出现眼跳,开始下一次注视;利用注视次数反映用户阅读的熟练程度、加工策略以及阅读材料对用户的难易程度,估计用户阅读兴趣;注视点即信息块,信息块愈多表明用户关注的机会愈多、理解的可能性愈大;
用户对阅读区域x的相对注视次数c为用户对阅读区域x的注视次数,c'为该用户对所有阅读区域的单位面积注视次数之和,即
所述瞳孔直径缩放比为:将用户在某一阅读区域内所有注视点的瞳孔直径的平均值作为平均瞳孔直径;所述的瞳孔直径是用户左眼瞳孔直径和右眼瞳孔直径的平均;将所述阅读区域内的平均瞳孔直径除以该阅读区域所在整篇阅读对象内的平均瞳孔直径,作为所述阅读区域的瞳孔直径缩放比;用户对阅读区域x的瞳孔直径缩放比e为用户在阅读区域x的平均瞳孔直径,e'为用户在整篇阅读对象内的平均瞳孔直径;
所述阅读眼动行为指标还包括相对回视次数;
用户对阅读区域x的相对回视次数ry为该用户对阅读区域x与阅读区域y之间的回视次数,r为该用户对所有阅读区域的回视次数,Iy'为该用户对阅读区域y不考虑相对回视次数时的兴趣度,q为该用户对阅读区域x有回视关系的其他阅读区域数;
所述回视次数为:眼跳是注视之间飞快的扫视动作;所述回视是指回溯性的眼跳,是指用户在对阅读区域的第一遍注视后,对该阅读区域进行再阅读;用回溯性的眼跳和眼跳路线揭示用户对所述阅读区域的内容对照和兴趣联系的情况;所述回视次数包括回视出次数和回视入次数;所述回视出次数指注视点从所述阅读区域移出到其它区域的次数;回视入次数指注视点从其它区域移入到所述阅读区域的次数;
用户对阅读区域的兴趣度的具体过程如下:
下标y表示不同于x的一个阅读区域,k为阅读区域总数;
Iy'表示只考虑在y阅读区域的相对访问时间Ty、相对注视次数Cy、瞳孔直径缩放比Ey三个指标时的兴趣度;
Ix表示考虑在x阅读区域的相对访问时间Tx、相对注视次数Cx、瞳孔直径缩放比Ex以及用户对阅读区域x的相对回视次数Rx四个指标时的兴趣度。
2.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述步骤一的具体过程如下:
利用TobiiStudio眼动仪记录用户阅读过程中眼动行为,所述眼动行为数据包括刺激材料名称、记录的时间、阅读区域面积、总访问时间、注视点、注视次数、左瞳孔直径、右瞳孔直径、左瞳孔有效性、右瞳孔有效性、眼动事件的持续时间、Hit;
所述Hit表示阅读区域激活及注视点在该阅读区域情况:0代表阅读区域被激活,但注视点未在阅读区域内,1代表阅读区域被激活且注视点在阅读区域内;
所述注视点为当所述眼动的速度低于基准值30°/s时,所述眼动的数据被标记成注视点。
3.根据权利要求1所述的一种自动识别用户阅读兴趣区的方法,其特征在于所述步骤四中阅读眼动行为指标权重计算具体过程如下:
过程一,建立模糊互补矩阵F=(fij)n×n
i表示第i个指标;j表示第j个指标;
在0~1标度中,0表示j指标比i指标重要,0.5表示i指标、j指标同等重要,1表示i指标比j指标重要;基于此,且阅读访问时间更能体现用户兴趣,构造模糊互补矩阵F
过程二,建立模糊一致性矩阵P=(pij)n×n
对模糊互补矩阵F按行求和:变量m=1.2,...,n
并通过如下数学变换:
得模糊一致性矩阵:
过程三,计算指标权重
利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数、瞳孔直径缩放比及相对回视次数四项指标的权重系数W=(w1,w2,w3,w4);
在先不考虑相对回视次数的情况下,利用模糊一致性矩阵P,通过方根法计算,得相对访问时间、相对注视次数及瞳孔直径缩放比三项指标的权重系数W=(w1,w2,w3);
所述方根法为①i和j分别表示第i个指标和第j个指标;n表示指标的个数。
CN201610461260.8A 2016-06-22 2016-06-22 一种自动识别用户阅读兴趣区的方法 Expired - Fee Related CN106169063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610461260.8A CN106169063B (zh) 2016-06-22 2016-06-22 一种自动识别用户阅读兴趣区的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610461260.8A CN106169063B (zh) 2016-06-22 2016-06-22 一种自动识别用户阅读兴趣区的方法

Publications (2)

Publication Number Publication Date
CN106169063A CN106169063A (zh) 2016-11-30
CN106169063B true CN106169063B (zh) 2019-11-26

Family

ID=58064644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610461260.8A Expired - Fee Related CN106169063B (zh) 2016-06-22 2016-06-22 一种自动识别用户阅读兴趣区的方法

Country Status (1)

Country Link
CN (1) CN106169063B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874170B (zh) * 2017-02-10 2020-11-03 上海木木聚枞机器人科技有限公司 兴趣内容识别方法及装置
CN106920129B (zh) * 2017-03-09 2020-05-05 山东师范大学 一种基于眼动追踪的网络广告效果测评系统及其方法
CN107180310A (zh) * 2017-06-01 2017-09-19 三峡大学 一种自动确定施工现场安全标志牌布置区域的方法
CN107274223B (zh) * 2017-06-13 2020-08-25 杭州电子科技大学 融合脑电信号与注视跟踪特征的广告评估方法
CN109116974A (zh) * 2017-06-23 2019-01-01 中兴通讯股份有限公司 锁屏图片的确定方法及推送方法,终端,网络服务器设备
CN108052973B (zh) * 2017-12-11 2020-05-05 中国人民解放军战略支援部队信息工程大学 基于多项眼动数据的地图符号用户兴趣分析方法
CN108304066A (zh) * 2018-01-24 2018-07-20 三峡大学 安全标识视觉传达效果量化方法
CN110634356A (zh) * 2019-04-13 2019-12-31 北京一目了然教育科技有限公司 一种基于眼动追踪技术训练阅读能力的方法
CN113591550B (zh) * 2021-06-17 2024-03-26 湖南大学 一种个人喜好自动检测模型构建方法、装置、设备及介质
CN113655882B (zh) * 2021-08-17 2022-05-03 中国人民解放军军事科学院战争研究院 一种基于眼动数据测量的人机界面信息筛选方法
CN117058748A (zh) * 2023-09-07 2023-11-14 杭州励普科技有限公司 一种基于深度阅读识别的电子文档阅读方法和系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395263B2 (en) * 2011-12-12 2019-08-27 Intel Corporation Interestingness scoring of areas of interest included in a display element
CN102496012A (zh) * 2011-12-14 2012-06-13 上海海事大学 结合眼动追踪和历史行为挖掘潜在需求的装置和方法
TWI550438B (zh) * 2013-10-04 2016-09-21 由田新技股份有限公司 記錄閱讀行爲的方法及裝置
US9256785B2 (en) * 2013-11-12 2016-02-09 Fuji Xerox Co., Ltd. Identifying user activities using eye tracking data, mouse events, and keystrokes
GB2528446B (en) * 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
供应链协同中供应商梯形模糊评价研究;黄细燕 等;《供应链管理》;20141231;第33卷(第10期);第344-347页 *
考虑行为和眼动跟踪的用户兴趣模型;苌道方 等;《河南科技大学学报: 自然科学版》;20140228;第35卷(第1期);第49-52页 *
阅读研究中的主要眼动指标评述;闫国利 等;《心理科学进展》;20131231;第21卷(第4期);第589-605页 *

Also Published As

Publication number Publication date
CN106169063A (zh) 2016-11-30

Similar Documents

Publication Publication Date Title
CN106169063B (zh) 一种自动识别用户阅读兴趣区的方法
CN101408886B (zh) 通过分析文档的段落来选择该文档的标签
WO2016115895A1 (zh) 一种基于视觉行为的网上用户类型识别方法及系统
Tran et al. Characterizing the language of online communities and its relation to community reception
CN101408887A (zh) 推荐词条以指定本体空间
CN106776672A (zh) 技术发展脉络图确定方法
CN105630890B (zh) 基于智能问答系统会话历史的新词发现方法及系统
CN113157867A (zh) 一种问答方法、装置、电子设备及存储介质
Buitelaar et al. Hot topics and schisms in NLP: Community and trend analysis with saffron on ACL and LREC proceedings
CN109086794A (zh) 一种基于t-lda主题模型的驾驶行为模式识方法
Antunes et al. Readability of web content
Sheridan Patterns in the policies: affirmative action in Australia
Barz et al. Implicit estimation of paragraph relevance from eye movements
CN109815391A (zh) 基于大数据的新闻数据分析方法及装置、电子终端
CN102915315A (zh) 一种对网页进行分类的方法和系统
ÖZEL et al. Effects of feature extraction and classification methods on cyberbully detection
Han et al. Twitter trending topics meaning disambiguation
Mendoza et al. A web search analysis considering the intention behind queries
Mizuno et al. Non-factoid Question Answering Experiments at NTCIR-6: Towards Answer Type Detection for Realworld Questions.
CN111078972B (zh) 提问行为数据的获取方法、装置和服务器
CN111966780A (zh) 一种基于词向量建模和信息检索的回顾性队列选择方法及装置
Wong et al. Comparing Measures of Linguistic Diversity Across Social Media Language Data and Census Data at Subnational Geographic Areas
Delucia et al. A multi-instance learning approach to civil unrest event detection on twitter
CN107679154A (zh) 一种基于时间轴的历史题解题方法、系统及介质
MacKenzie Citedness, uncitedness, and the murky world between

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20191126

Termination date: 20200622