CN105094292A - 评价用户关注度的方法和设备 - Google Patents
评价用户关注度的方法和设备 Download PDFInfo
- Publication number
- CN105094292A CN105094292A CN201410186949.5A CN201410186949A CN105094292A CN 105094292 A CN105094292 A CN 105094292A CN 201410186949 A CN201410186949 A CN 201410186949A CN 105094292 A CN105094292 A CN 105094292A
- Authority
- CN
- China
- Prior art keywords
- user
- region
- attention rate
- visual lines
- tolerance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了评价用户关注度的方法和设备。根据本发明的评价用户关注度的方法包括:检测用户的视线方向;确定所检测的视线方向所对应的屏幕上的区域;获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及根据所获得的度量,生成用户对所确定的区域的关注度。
Description
技术领域
本发明一般地涉及人机交互领域。具体而言,本发明涉及一种评价用户关注度的方法和设备。
背景技术
近年来,人机交互技术得到迅猛发展。人机交互技术根据所采用的交互方式大体可分为如下两类:键盘、鼠标、触摸屏等需要用户与相关设备的物理接触的交互方式、基于用户的动作如手势、用户的语音的无物理接触的交互方式。第一种交互方式直接明了,但不够智能,人机交互界面不够友好,不能适用于无物理接触的情形。后一种方式直观容易理解,但容易与用户的其它动作相混淆且需要用户记忆大量的预定动作,存在口音与口语的识别困难。相应地,用户意图识别的准确率较低。
针对现有技术中存在的上述问题,期望直接明了、智能友好、无需物理接触、无需记忆预定动作、不存在识别障碍的人机交互方式。
本发明的发明人意识到用户的视线能够直接地反映用户的观看对象,而用户的表情能够直接地反映用户对所观看的对象的关注程度。因此,本发明提出了一种基于用户的视线和表情对用户的关注度进行评价的方法和设备。进一步地,可以基于对用户的关注度的评价,进行各种人机交互应用,如可视媒体的导航等。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
本发明的目的是针对现有技术的上述问题,提出了一种能够准确地评价用户关注度的方法和设备。
为了实现上述目的,根据本发明的一个方面,提供了一种评价用户关注度的方法,其包括:检测用户的视线方向;确定所检测的视线方向所对应的屏幕上的区域;获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及根据所获得的度量,生成用户对所确定的区域的关注度。
根据本发明的另一个方面,提供了一种评价用户关注度的设备,其包括:视线方向检测装置,被配置为检测用户的视线方向;对应区域确定装置,被配置为确定所检测的视线方向所对应的屏幕上的区域;度量获得装置,被配置为获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及关注度生成装置,被配置为根据所获得的度量生成用户对所确定的区域的关注度。
另外,根据本发明的另一方面,还提供了一种存储介质。所述存储介质包括机器可读的程序代码,当在信息处理设备上执行所述程序代码时,所述程序代码使得所述信息处理设备执行根据本发明的上述方法。
此外,根据本发明的再一方面,还提供了一种程序产品。所述程序产品包括机器可执行的指令,当在信息处理设备上执行所述指令时,所述指令使得所述信息处理设备执行根据本发明的上述方法。
附图说明
参照下面结合附图对本发明实施例的说明,会更加容易地理解本发明的以上和其它目的、特点和优点。附图中的部件只是为了示出本发明的原理。在附图中,相同的或类似的技术特征或部件将采用相同或类似的附图标记来表示。附图中:
图1示出了根据本发明的实施例的评价用户关注度的方法的流程图;
图2示出了根据本发明的实施例的度量获得方法的流程图;
图3示出了根据本发明的实施例的人机交互方法的流程图;
图4示出了根据本发明的实施例的评价用户关注度的设备的结构方框图;以及
图5示出了可用于实施根据本发明实施例的方法和设备的计算机的示意性框图。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行详细描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施方式的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。另外,还需要指出的是,在本发明的一个附图或一种实施方式中描述的元素和特征可以与一个或更多个其它附图或实施方式中示出的元素和特征相结合。
本发明的基本思想是根据用户的视线判断用户观看的对象,如多个屏幕中的一个屏幕,或一个屏幕上的某个区域等。然后基于用户的表情,判断用户对观看对象的关注度。
下面将参照图1描述根据本发明的实施例的评价用户关注度的方法的流程。
图1示出了根据本发明的实施例的评价用户关注度的方法的流程图。如图1所示,根据本发明的评价用户关注度的方法,包括如下步骤:检测用户的视线方向(步骤S1);确定所检测的视线方向所对应的屏幕上的区域(步骤S2);获得用户针对所确定的区域的表情在各个预定情绪上的度量(步骤S3);以及根据所获得的度量,生成用户对所确定的区域的关注度(步骤S4);。
在步骤S1中,检测用户的视线方向。
此处对用户的视线方向的检测可以利用本领域已知的各种方法,并不做具体限制。
作为一种示例,首先,从用户图像中,检测用户的面部区域。然后,从用户的面部区域中,检测用户的双眼区域和鼻梁区域。接着,根据用户的双眼区域和鼻梁区域,确定用户的面部朝向作为用户的视线方向的检测结果。
当用户面对由多块屏幕组成的屏幕矩阵时,根据用户的面部朝向,即可判断出用户所观看的是哪个屏幕。所以,针对这类情况,检测用户的视线方向只需检测出用户的面部朝向。
在本示例中,假定根据用户的双眼区域和鼻梁区域即可确定用户的面部朝向。但本发明不限于此。例如,用户面部的多个特征点也可确定用户的面部朝向。相应地,可以通过检测用户面部的多个特征点来检测用户的视线方向。
作为另一示例,首先,从用户图像中,检测用户的面部区域。然后,从用户的面部区域中,检测用户的双眼区域和鼻梁区域。接着,根据用户的双眼区域和鼻梁区域,确定用户的面部朝向。并且,从用户的双眼区域中,检测用户的瞳孔位置。最后,根据用户的面部朝向与用户的瞳孔位置相对于双眼区域的中心位置的偏移量,确定用户的视线方向。
基于这一示例所检测出的用户的视线方向,可以更精准地定位屏幕上的某块区域,例如是多块屏幕中的某一块屏幕上的某一区域,或者单个屏幕上的某一区域。
这一示例基于如下假设:当用户平视屏幕时,若双眼瞳孔均位于双眼中心位置,则实际观看方向为双眼中心连线与鼻梁交点处向前方的直线。
本发明不限于此。利用其它因素来确定更精细的用户视线方向的方法均可应用于此。
在步骤S2中,确定所检测的视线方向所对应的屏幕上的区域。
这一步骤实现视线方向到屏幕区域的转换。根据具体应用场景的不同,这里的屏幕包括多个屏幕和单个屏幕的情形。屏幕上的区域相应地指示多个屏幕中的一个屏幕、多个屏幕中的一个屏幕上的一个区域、或单个屏幕上的一个区域的情形。
步骤S1和S2的作用就是确定用户的视线方向,定位用户所关注的对象。
在上述步骤中,对面部区域、鼻梁区域、双眼区域、瞳孔区域的检测可借助于面部区域检测器、鼻梁区域检测器、双眼区域检测器、瞳孔区域检测器来进行。
在传统的技术中,利用检测器进行相关的检测时,检测器是离线训练好的,是一成不变的。如果训练得好,则检测结果准确,如果训练所利用的样本与实际应用时的检测对象/背景条件差别较大,则检测不准确。事实上,训练样本往往局限于若干种人为指定的背景下,在光照环境、眼睛大小、眼部特征等各方面有局限性,并不适合应用时的情况。
当输入数据是用户图像组成的帧序列时,针对每一个用户图像进行上述步骤S1。考虑到这一点,本发明的发明人提出利用跟踪和预测技术来修正检测器的输出结果,并以实际的用户图像作为训练样本来训练检测器,使得检测器的训练更加充分并且更适合于当前输入的用户图像帧序列。
具体地说,对于输入的用户图像帧序列,基于相应检测器对在前的用户图像的检测结果,利用跟踪算法,估计当前用户图像的预期检测结果;再利用预期检测结果和当前用户图像训练相应的检测器。
这里假定通过跟踪获得的预期检测结果比检测器针对当前用户图像检测出的结果更加准确。以通过跟踪获得的预期检测结果作为标准输出,以当前用户图像作为输入,对检测器进行训练。
由于使用的训练样本是当前图像,也即输入的用户图像帧序列中的图像帧,所以经过训练的检测器更加适用于当前图像帧序列。
当然,获取相对准确的预期检测结果的方法,不限于此。
例如,还可以利用边缘特征进行当前用户图像的预期检测结果的估计。
通过对检测器进行训练,可以进一步提高检测器的检测精度。
在步骤S3中,获得用户针对所确定的区域的表情在各个预定情绪上的度量。
在传统的技术中,仅获取用户表情关于各种情绪的置信度,选择置信度最高的情绪作为用户表情的识别结果。
这种方式一方面以一种情绪作为用户情感的结果,不能充分利用各种情绪的信息,另一方面不能真实地反映用户的关注度。
具体地说,如果用户关于各种情绪的置信度并不是只有一个置信度最大,其它置信度相对较小,而是两个置信度均较大,则置信度最大的情绪被确定为用户的表情识别结果,置信度次大的情绪的信息被丢弃。
另外,用户的情绪与用户的关注度并不存在一一对应的关系。并不是用户的一种情绪对应于高的关注度,用户的另一种情绪对应于低的关注度。而是,用户的关注度暗藏于多种情绪之中。
举例来说,用户看到令人愉悦的视频时表现出的高兴情绪可以表示用户对视频的关注度较高。但是,用户看到令人气愤的视频时表现出的愤怒情绪同样也可以表示用户对视频的关注度较高。
综上所述,不宜以一种情绪来判断用户的关注度。
在本发明中,获得用户针对所确定的区域的表情在各个预定情绪上的度量,并综合考虑多种情绪的度量来确定用户的关注度。
具体地,如图2所示,在一种度量获得方法中,首先,从用户的面部区域中,识别多个面部关键点的位置(步骤S21)。然后,利用主动外观模型,根据所识别的多个面部关键点的位置,估计用户的表情在各个预定情绪上的置信度作为所获得的度量(步骤S22)。
在步骤S21中,识别能够表征用户的面部表情的多个面部关键点的位置。由于人类的表情是由其面部的肌肉共同作用而产生的,所以通过确定用户面部区域中的多个面部关键点的位置,可以获知用户的表情,而无需处理整个用户面部区域。
面部关键点的选取可以依具体实施方式而定,并不做具体限制。只要所选取的面部关键点能够反映用户的表情即可。
在步骤S22中,根据在步骤S21中识别的多个面部关键点的位置,估计用户的表情在各个预定情绪上的置信度。如上所述,多个面部关键点可以表征用户的表情。而用户的表情反映各个预定情绪的可能性由相应的置信度表示。这里利用的主动外观模型(ActiveAppearanceModel)是基于面部关键点估计用户表情在各个预定情绪上的置信度的模型的示例,是本领域已知的模型,在此不再赘述。但本发明不限于此。只要是能够根据多个面部关键点的位置估计出用户的表情在各个预定情绪上的置信度的模型均可用于本发明。
通过步骤S21和S22,获得了一组置信度作为分别表征用户的表情在各个预定情绪上的可能性的度量。所获得的一组置信度并不像传统技术那样按照置信度的大小,选择置信度最大的情绪作为情绪估计结果输出,而是例如以向量的形式一起在后面的步骤中作为关注度的生成基础。
在步骤S4中,根据所获得的度量,生成用户对所确定的区域的关注度。
如上所述,单一的情绪判断结果不适于作为用户关注度的判断基础。因此,可以将步骤S3所获得的一组度量作为元素来构成特征向量,用特征向量来表征用户的关注度。
特征向量,即步骤S3中所获得的一组度量与用户关注度之间的转换可以采用多种方式。
例如,通过对分类器进行训练,可以建立特征向量与用户关注度之间的对应关系,从而在实际应用中,将特征向量输入分类器,就可以得到对应的用户关注度。具体地说,在训练时,提供给分类器的是已知的特征向量和已知的用户关注度构成的对。已知的特征向量可通过重复执行上述步骤S1-S3来获得,已知的用户关注度可通过用户指定、专家给出等方式获得。经过训练,分类器就能够针对输入的特征向量给出对应的用户关注度,作为输出。
本发明不限于此。例如也可以通过函数、表格等方式实现特征向量与用户关注度之间的转换。例如,如果特征向量是N维的,则可设计将特征向量的N维元素作为自变量、用户关注度作为因变量的函数。或者采用表格方式记录从特征向量到用户关注度的映射,在应用时通过查表操作进行两者之间的转换。
根据本发明的另一实施例,除了步骤S3中所获得的用户针对所确定的区域的表情在各个预定情绪上的度量之外,还根据所检测的视线方向的变化,生成用户关注度。
例如,如果所检测的视线方向不变或基本不变的时间超过预定阈值,则用户关注度高。
本领域技术人员可以理解:当用户视线方向不变或长时间基本不变时,用户专注于当前看到的内容,因此,用户关注度高。
也就是说,除了从用户的表情角度评价用户的关注度之外,还可以从其它角度评价用户的关注度。
图3示出了根据本发明的实施例的人机交互方法的流程图。
如图3所示,根据本发明的实施例的人机交互方法包括:检测用户的视线方向(步骤S31);确定所检测的视线方向所对应的屏幕上的区域(步骤S32);获得用户针对所确定的区域的表情在各个预定情绪上的度量(步骤S33);根据所获得的度量,生成用户对所确定的区域的关注度(步骤S34);以及根据所生成的用户对所确定的区域的关注度,进行与用户的交互(步骤S35)。
步骤S31-S34与上文中已经描述的步骤S1-S4一致,在此不再赘述。
在步骤S35中,根据所生成的用户对所确定的区域的关注度,进行与用户的交互。
具体的交互方式可根据应用场景灵活设计。
例如,在可视媒体的导航中,如果判断为用户对所确定的区域的关注度高于预定阈值,则可以将该区域的内容放大,例如全屏显示,或者增加关于该区域的内容的更多细节,或者显示与该区域内容相关的其它内容的列表等。例如,当进一步判断为用户对所显示的列表中的某一条目的关注度高时,显示与该条目关联的内容。
利用本发明的关注度评价方法及人机交互方法,用户无需经过事先训练或学习,就可以自由地浏览自己感兴趣的内容区域,并进行诸如放大显示、显示更多细节、改变显示内容等的交互。
利用检测器的在线训练功能,本发明可以适应不同场景下的需求,如不同的外部照明环境、采集用户视频的设备位于不同位置等情况。
因此,基于本发明的人机交互方式直接明了、智能友好、无需物理接触、无需记忆预定动作、不存在识别障碍。
下面,将参照图4描述根据本发明实施例的评价用户关注度的设备。
图4示出了根据本发明的实施例的评价用户关注度的设备的结构方框图。如图4所示,根据本发明的评价用户关注度的设备400包括:视线方向检测装置41,被配置为检测用户的视线方向;对应区域确定装置42,被配置为确定所检测的视线方向所对应的屏幕上的区域;度量获得装置43,被配置为获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及关注度生成装置44,被配置为根据所获得的度量生成用户对所确定的区域的关注度。
在一个实施例中,视线方向检测装置41包括:面部区域检测器,被配置为从用户图像中检测用户的面部区域;双眼区域检测器,被配置为从用户的面部区域中检测用户的双眼区域;鼻梁区域检测器,被配置为从用户的面部区域中检测用户的鼻梁区域;朝向确定单元,被配置为根据用户的双眼区域和鼻梁区域确定用户的面部朝向作为用户的视线方向的检测结果。
在一个实施例中,视线方向检测装置41还包括:瞳孔检测器,被配置为从用户的双眼区域中检测用户的瞳孔位置;视线方向确定单元,被配置为根据用户的面部朝向与用户的瞳孔位置相对于双眼区域的中心位置的偏移量确定用户的视线方向。
在一个实施例中,度量获得装置43包括:关键点识别单元,被配置为从用户的面部区域中,识别多个面部关键点的位置;置信度估计单元,被配置为利用主动外观模型,根据所识别的多个面部关键点的位置,估计用户的表情在各个预定情绪上的置信度作为所获得的度量。
在一个实施例中,评价用户关注度的设备400还包括:区域跟踪装置,被配置为:基于之前用户图像的检测结果,利用跟踪算法,估计当前用户图像的预期检测结果;训练装置,被配置为利用预期检测结果和当前用户图像训练相应的检测器。
在一个实施例中,区域跟踪装置还利用边缘特征进行上述估计。
在一个实施例中,关注度生成装置44还根据所检测的视线方向的变化,生成所述关注度。
在一个实施例中,如果所检测的视线方向不变或基本不变的时间超过预定阈值,则所述关注度高。
在一个实施例中,评价用户关注度的设备400还包括:交互装置,被配置为根据所生成的用户对所确定的区域的关注度,进行与用户的交互。
由于在根据本发明的评价用户关注度的设备中所包括的各个装置和单元中的处理分别与上面描述的评价用户关注度的方法中所包括的各个步骤中的处理类似,因此为了简洁起见,在此省略这些装置和单元的详细描述。
此外,这里尚需指出的是,上述设备中各个组成装置、单元可以通过软件、固件、硬件或其组合的方式进行配置。配置可使用的具体手段或方式为本领域技术人员所熟知,在此不再赘述。在通过软件或固件实现的情况下,从存储介质或网络向具有专用硬件结构的计算机(例如图5所示的通用计算机500)安装构成该软件的程序,该计算机在安装有各种程序时,能够执行各种功能等。
图5示出了可用于实施根据本发明实施例的方法和设备的计算机的示意性框图。
在图5中,中央处理单元(CPU)501根据只读存储器(ROM)502中存储的程序或从存储部分508加载到随机存取存储器(RAM)503的程序执行各种处理。在RAM503中,还根据需要存储当CPU501执行各种处理等等时所需的数据。CPU501、ROM502和RAM503经由总线504彼此连接。输入/输出接口505也连接到总线504。
下述部件连接到输入/输出接口505:输入部分506(包括键盘、鼠标等等)、输出部分507(包括显示器,比如阴极射线管(CRT)、液晶显示器(LCD)等,和扬声器等)、存储部分508(包括硬盘等)、通信部分509(包括网络接口卡比如LAN卡、调制解调器等)。通信部分509经由网络比如因特网执行通信处理。根据需要,驱动器510也可连接到输入/输出接口505。可拆卸介质511比如磁盘、光盘、磁光盘、半导体存储器等等可以根据需要被安装在驱动器510上,使得从中读出的计算机程序根据需要被安装到存储部分508中。
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质511安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图5所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质511。可拆卸介质511的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光盘(包含迷你盘(MD)(注册商标))和半导体存储器。或者,存储介质可以是ROM502、存储部分508中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
本发明还提出一种存储有机器可读取的指令代码的程序产品。所述指令代码由机器读取并执行时,可执行上述根据本发明实施例的方法。
相应地,用于承载上述存储有机器可读取的指令代码的程序产品的存储介质也包括在本发明的公开中。所述存储介质包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
在上面对本发明具体实施例的描述中,针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、要素、步骤或组件的存在,但并不排除一个或更多个其它特征、要素、步骤或组件的存在或附加。
此外,本发明的方法不限于按照说明书中描述的时间顺序来执行,也可以按照其他的时间顺序地、并行地或独立地执行。因此,本说明书中描述的方法的执行顺序不对本发明的技术范围构成限制。
尽管上面已经通过对本发明的具体实施例的描述对本发明进行了披露,但是,应该理解,上述的所有实施例和示例均是示例性的,而非限制性的。本领域的技术人员可在所附权利要求的精神和范围内设计对本发明的各种修改、改进或者等同物。这些修改、改进或者等同物也应当被认为包括在本发明的保护范围内。
Claims (18)
1.一种评价用户关注度的方法,包括:
检测用户的视线方向;
确定所检测的视线方向所对应的屏幕上的区域;
获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及
根据所获得的度量,生成用户对所确定的区域的关注度。
2.如权利要求1所述的方法,其中所述检测用户的视线方向包括:
从用户图像中,检测用户的面部区域;
从用户的面部区域中,检测用户的双眼区域和鼻梁区域;
根据用户的双眼区域和鼻梁区域,确定用户的面部朝向作为用户的视线方向的检测结果。
3.如权利要求2所述的方法,其中所述检测用户的视线方向还包括:
从用户的双眼区域中,检测用户的瞳孔位置;
根据用户的面部朝向与用户的瞳孔位置相对于双眼区域的中心位置的偏移量,确定用户的视线方向。
4.如权利要求1所述的方法,其中所述获得用户针对所确定的区域的表情在各个预定情绪上的度量包括:
从用户的面部区域中,识别多个面部关键点的位置;
利用主动外观模型,根据所识别的多个面部关键点的位置,估计用户的表情在各个预定情绪上的置信度作为所获得的度量。
5.如权利要求2或3所述的方法,其中利用相应的检测器进行上述检测处理;
基于之前用户图像的检测结果,利用跟踪算法,估计当前用户图像的预期检测结果;
利用预期检测结果和当前用户图像训练相应的检测器。
6.如权利要求5所述的方法,其中还利用边缘特征进行所述估计。
7.如权利要求1所述的方法,还根据所检测的视线方向的变化,生成所述关注度。
8.如权利要求7所述的方法,其中如果所检测的视线方向不变或基本不变的时间超过预定阈值,则所述关注度高。
9.如权利要求1所述的方法,还包括:根据所生成的用户对所确定的区域的关注度,进行与用户的交互。
10.一种评价用户关注度的设备,包括:
视线方向检测装置,被配置为检测用户的视线方向;
对应区域确定装置,被配置为确定所检测的视线方向所对应的屏幕上的区域;
度量获得装置,被配置为获得用户针对所确定的区域的表情在各个预定情绪上的度量;以及
关注度生成装置,被配置为根据所获得的度量生成用户对所确定的区域的关注度。
11.如权利要求10所述的设备,其中所述视线方向检测装置包括:
面部区域检测器,被配置为从用户图像中检测用户的面部区域;
双眼区域检测器,被配置为从用户的面部区域中检测用户的双眼区域;
鼻梁区域检测器,被配置为从用户的面部区域中检测用户的鼻梁区域;
朝向确定单元,被配置为根据用户的双眼区域和鼻梁区域确定用户的面部朝向作为用户的视线方向的检测结果。
12.如权利要求11所述的设备,其中所述视线方向检测装置还包括:
瞳孔检测器,被配置为从用户的双眼区域中检测用户的瞳孔位置;
视线方向确定单元,被配置为根据用户的面部朝向与用户的瞳孔位置相对于双眼区域的中心位置的偏移量确定用户的视线方向。
13.如权利要求10所述的设备,其中所述度量获得装置包括:
关键点识别单元,被配置为从用户的面部区域中,识别多个面部关键点的位置;
置信度估计单元,被配置为利用主动外观模型,根据所识别的多个面部关键点的位置,估计用户的表情在各个预定情绪上的置信度作为所获得的度量。
14.如权利要求11或12所述的设备,还包括:
区域跟踪装置,被配置为:基于之前用户图像的检测结果,利用跟踪算法,估计当前用户图像的预期检测结果;
训练装置,被配置为利用预期检测结果和当前用户图像训练相应的检测器。
15.如权利要求14所述的设备,其中所述区域跟踪装置还利用边缘特征进行所述估计。
16.如权利要求10所述的设备,其中所述关注度生成装置还根据所检测的视线方向的变化,生成所述关注度。
17.如权利要求16所述的设备,其中如果所检测的视线方向不变或基本不变的时间超过预定阈值,则所述关注度高。
18.如权利要求10所述的设备,还包括:
交互装置,被配置为根据所生成的用户对所确定的区域的关注度,进行与用户的交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410186949.5A CN105094292A (zh) | 2014-05-05 | 2014-05-05 | 评价用户关注度的方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410186949.5A CN105094292A (zh) | 2014-05-05 | 2014-05-05 | 评价用户关注度的方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105094292A true CN105094292A (zh) | 2015-11-25 |
Family
ID=54574935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410186949.5A Pending CN105094292A (zh) | 2014-05-05 | 2014-05-05 | 评价用户关注度的方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105094292A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105549841A (zh) * | 2015-12-02 | 2016-05-04 | 小天才科技有限公司 | 一种语音交互方法、装置及设备 |
CN105959737A (zh) * | 2016-06-30 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种基于用户情绪识别的视频评价方法和装置 |
CN107609458A (zh) * | 2016-07-20 | 2018-01-19 | 平安科技(深圳)有限公司 | 基于人脸表情识别的情绪反馈方法及装置 |
CN107832699A (zh) * | 2017-11-02 | 2018-03-23 | 北方工业大学 | 基于阵列镜头的兴趣点关注度测试方法及装置 |
CN107832698A (zh) * | 2017-11-02 | 2018-03-23 | 北方工业大学 | 基于阵列镜头的学习兴趣测试方法及装置 |
CN108647504A (zh) * | 2018-03-26 | 2018-10-12 | 深圳奥比中光科技有限公司 | 实现信息安全显示的方法及系统 |
CN111142819A (zh) * | 2019-12-13 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 一种视觉空间注意力检测方法及相关产品 |
CN111310602A (zh) * | 2020-01-20 | 2020-06-19 | 北京正和恒基滨水生态环境治理股份有限公司 | 一种基于情绪识别的展品关注度分析系统及分析方法 |
CN113515335A (zh) * | 2021-05-20 | 2021-10-19 | 口碑(上海)信息技术有限公司 | 一种服务信息展示形式的确定方法、装置以及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1423228A (zh) * | 2002-10-17 | 2003-06-11 | 南开大学 | 识别人眼注视方向的装置和方法及其应用 |
US20060257041A1 (en) * | 2005-05-16 | 2006-11-16 | Fuji Photo Film Co., Ltd. | Apparatus, method, and program for image processing |
CN101777116A (zh) * | 2009-12-23 | 2010-07-14 | 中国科学院自动化研究所 | 一种基于动作跟踪的脸部表情分析方法 |
CN101916264A (zh) * | 2010-07-30 | 2010-12-15 | 浙江大学 | 基于用户面部表情与目光分布检测的个性化网页推荐方法 |
CN102221881A (zh) * | 2011-05-20 | 2011-10-19 | 北京航空航天大学 | 基于仿生代理与视线追踪兴趣区域分析的人机交互方法 |
CN102301331A (zh) * | 2011-07-06 | 2011-12-28 | 华为技术有限公司 | 电子设备的交互方法及装置 |
CN103440038A (zh) * | 2013-08-28 | 2013-12-11 | 中国人民大学 | 一种基于眼部识别的信息采集系统及其应用 |
-
2014
- 2014-05-05 CN CN201410186949.5A patent/CN105094292A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1423228A (zh) * | 2002-10-17 | 2003-06-11 | 南开大学 | 识别人眼注视方向的装置和方法及其应用 |
US20060257041A1 (en) * | 2005-05-16 | 2006-11-16 | Fuji Photo Film Co., Ltd. | Apparatus, method, and program for image processing |
CN101777116A (zh) * | 2009-12-23 | 2010-07-14 | 中国科学院自动化研究所 | 一种基于动作跟踪的脸部表情分析方法 |
CN101916264A (zh) * | 2010-07-30 | 2010-12-15 | 浙江大学 | 基于用户面部表情与目光分布检测的个性化网页推荐方法 |
CN102221881A (zh) * | 2011-05-20 | 2011-10-19 | 北京航空航天大学 | 基于仿生代理与视线追踪兴趣区域分析的人机交互方法 |
CN102301331A (zh) * | 2011-07-06 | 2011-12-28 | 华为技术有限公司 | 电子设备的交互方法及装置 |
CN103440038A (zh) * | 2013-08-28 | 2013-12-11 | 中国人民大学 | 一种基于眼部识别的信息采集系统及其应用 |
Non-Patent Citations (1)
Title |
---|
高帆等: ""TLD目标跟踪算法研究"", 《电视技术》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105549841A (zh) * | 2015-12-02 | 2016-05-04 | 小天才科技有限公司 | 一种语音交互方法、装置及设备 |
CN105959737A (zh) * | 2016-06-30 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种基于用户情绪识别的视频评价方法和装置 |
CN107609458A (zh) * | 2016-07-20 | 2018-01-19 | 平安科技(深圳)有限公司 | 基于人脸表情识别的情绪反馈方法及装置 |
CN107832699A (zh) * | 2017-11-02 | 2018-03-23 | 北方工业大学 | 基于阵列镜头的兴趣点关注度测试方法及装置 |
CN107832698A (zh) * | 2017-11-02 | 2018-03-23 | 北方工业大学 | 基于阵列镜头的学习兴趣测试方法及装置 |
CN108647504A (zh) * | 2018-03-26 | 2018-10-12 | 深圳奥比中光科技有限公司 | 实现信息安全显示的方法及系统 |
CN108647504B (zh) * | 2018-03-26 | 2020-07-24 | 深圳奥比中光科技有限公司 | 实现信息安全显示的方法及系统 |
CN111142819A (zh) * | 2019-12-13 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 一种视觉空间注意力检测方法及相关产品 |
CN111310602A (zh) * | 2020-01-20 | 2020-06-19 | 北京正和恒基滨水生态环境治理股份有限公司 | 一种基于情绪识别的展品关注度分析系统及分析方法 |
CN113515335A (zh) * | 2021-05-20 | 2021-10-19 | 口碑(上海)信息技术有限公司 | 一种服务信息展示形式的确定方法、装置以及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105094292A (zh) | 评价用户关注度的方法和设备 | |
US10950060B2 (en) | Identifying augmented reality visuals influencing user behavior in virtual-commerce environments | |
US11017156B2 (en) | Apparatus and method for providing summarized information using an artificial intelligence model | |
US20240152548A1 (en) | Electronic apparatus for searching related image and control method therefor | |
US11954150B2 (en) | Electronic device and method for controlling the electronic device thereof | |
EP3617952A1 (en) | Information search method, apparatus and system | |
CN102236984B (zh) | 信息处理设备、提问倾向设定方法 | |
US20130097011A1 (en) | Online Advertisement Perception Prediction | |
CN104573706A (zh) | 一种物体图像识别方法及其系统 | |
US11709655B2 (en) | Electronic device and control method thereof | |
US20220156956A1 (en) | Active image depth prediction | |
Laraba et al. | Dance performance evaluation using hidden Markov models | |
Conati et al. | Further Results on Predicting Cognitive Abilities for Adaptive Visualizations. | |
CN111656438A (zh) | 电子装置及其控制方法 | |
Vretos et al. | Exploiting sensing devices availability in AR/VR deployments to foster engagement | |
Vatavu | Beyond features for recognition: human-readable measures to understand users’ whole-body gesture performance | |
CN111902812A (zh) | 电子装置及其控制方法 | |
CN110169021B (zh) | 用于过滤多条消息的方法和设备 | |
US11468270B2 (en) | Electronic device and feedback information acquisition method therefor | |
KR20190067433A (ko) | 텍스트-리딩 기반의 리워드형 광고 서비스 제공 방법 및 이를 수행하기 위한 사용자 단말 | |
Xu et al. | Wayfinding design in transportation architecture–are saliency models or designer visual attention a good predictor of passenger visual attention? | |
WO2020136668A1 (en) | System and method for generating a modified design creative | |
Yang et al. | Student Classroom Behavior Detection Based on YOLOv7+ BRA and Multi-model Fusion | |
US20220269935A1 (en) | Personalizing Digital Experiences Based On Predicted User Cognitive Style | |
US11551434B2 (en) | Apparatus and method for retraining object detection using undetected image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151125 |