CN114090862A - 信息处理方法、装置及电子设备 - Google Patents
信息处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114090862A CN114090862A CN202010855646.3A CN202010855646A CN114090862A CN 114090862 A CN114090862 A CN 114090862A CN 202010855646 A CN202010855646 A CN 202010855646A CN 114090862 A CN114090862 A CN 114090862A
- Authority
- CN
- China
- Prior art keywords
- interactive
- content
- information
- content page
- virtual article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9532—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请属于计算机技术领域,具体涉及一种信息处理方法、信息处理装置、计算机可读介质以及电子设备。该方法包括:响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;获取所述交互主体对所述内容页面的专注度信息;当所述专注度信息符合预设条件时,获取与当前展示的所述内容页面中的目标内容相关联的虚拟物品配置信息;根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件;响应于对所述虚拟物品领取控件的领取触发操作,获取与所述虚拟物品配置信息对应的虚拟物品。该方法可以提高内容传播效果,而且可以提高虚拟物品分配的准确性。
Description
技术领域
本申请属于计算机技术领域,具体涉及一种信息处理方法、信息处理装置、计算机可读介质以及电子设备。
背景技术
随着互联网技术的发展,人们越来越习惯于在网络平台上浏览网络资讯,例如人们可以通过手机上安装的新闻客户端、浏览器客户端等各种应用程序APP浏览新闻资讯或者阅读文章。为了鼓励用户阅读文章消费内容,现有的资讯类产品经常采用发放红包等形式向用户的资讯浏览行为做出奖励,从而可以增加用户的产品使用时长,提高用户活跃度。然而,由于难以获知用户的使用状态,部分用户通过不断刷新资讯或者借助脚本自动化浏览资讯等方式进行作弊,虽然表面上实施了浏览行为,但实际上并不能达到传播资讯和提高用户留存的效果。因此,如何辨识用户的有效浏览行为和作弊行为,进而提高奖励发放的精准度是目前亟待解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请的目的在于提供一种信息处理方法、信息处理装置、计算机可读介质以及电子设备,至少在一定程度上克服相关技术中存在的用户行为辨识难度大、奖励发放准确性差等技术问题。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请实施例的一个方面,提供一种虚拟对象处理方法,该方法包括:响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;获取所述交互主体对所述内容页面的专注度信息;当所述专注度信息符合预设条件时,获取与当前展示的所述内容页面中的目标内容相关联的虚拟物品配置信息;根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件;响应于对所述虚拟物品领取控件的领取触发操作,获取与所述虚拟物品配置信息对应的虚拟物品。
根据本申请实施例的一个方面,提供一种虚拟对象处理装置,该装置包括:页面展示模块,被配置为响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;专注度获取模块,被配置为获取所述交互主体对所述内容页面的专注度信息;配置信息获取模块,被配置为当所述专注度信息符合预设条件时,获取与当前展示的所述内容页面中的目标内容相关联的虚拟物品配置信息;领取控件展示模块,被配置为根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件;虚拟物品获取模块,被配置为响应于对所述虚拟物品领取控件的领取触发操作,获取与所述虚拟物品配置信息对应的虚拟物品。
在本申请的一些实施例中,基于以上技术方案,所述页面展示模块包括:页面选取单元,被配置为在终端设备的交互界面上展示包括至少一个内容选取控件的内容选取页面;内容触发单元,被配置为接收交互主体输入的内容触发操作,并根据所述内容触发操作在所述至少一个内容选取控件中确定目标控件;页面展示单元,被配置为获取与所述目标控件相对应的内容页面,并在所述终端设备的交互界面上展示所述内容页面。
在本申请的一些实施例中,基于以上技术方案,所述内容触发单元包括:图像采集子单元,被配置为对交互主体进行图像采集,得到所述交互主体的眼部运动图像;类型确定子单元,被配置为根据所述眼部运动图像确定所述交互主体的眼部动作的动作类型;操作输入子单元,被配置为若所述眼部动作的动作类型为目标动作类型,则将所述眼部动作确定为所述交互主体输入的内容触发操作。
在本申请的一些实施例中,基于以上技术方案,所述虚拟物品配置信息包括虚拟物品的领取权限;所述领取控件展示模块包括:主体属性获取单元,被配置为获取所述交互主体的主体属性信息;触发权限确定单元,被配置为根据所述主体属性信息确定所述交互主体是否具有所述领取权限;第一控件展示单元,被配置为若所述交互主体具有所述领取权限,则在所述交互界面上展示用于领取所述虚拟物品的虚拟物品领取控件。
在本申请的一些实施例中,基于以上技术方案,所述虚拟物品配置信息包括虚拟物品的领取数量上限;所述领取控件展示模块包括:领取次数获取单元,被配置为获取与所述目标内容相关的虚拟物品的领取次数;第二控件展示单元,被配置为若所述虚拟物品的领取次数小于所述领取数量上限,则在所述交互界面上展示用于领取所述虚拟物品的虚拟物品领取控件。
在本申请的一些实施例中,基于以上技术方案,所述专注度获取模块包括:图像采集单元,被配置为对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;眼动轨迹确定单元,被配置为根据所述眼部运动图像确定所述交互主体的眼动轨迹,所述眼动轨迹为所述交互主体的视线迹点在所述内容页面上的移动轨迹;第一专注度获取单元,被配置为获取所述移动轨迹与所述内容页面上的目标内容的位置关系,并根据所述位置关系确定所述交互主体对所述内容页面的专注度信息。
在本申请的一些实施例中,基于以上技术方案,所述专注度获取模块包括:图像采集单元,被配置为对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;眼动轨迹确定单元,被配置为根据所述眼部运动图像确定所述交互主体的眼动轨迹,所述眼动轨迹为所述交互主体的视线迹点在所述内容页面上的移动轨迹;注视点确定单元,被配置为根据所述交互主体的眼动轨迹确定所述交互主体在所述内容页面上的注视点;分布比例确定单元,被配置为获取各个所述注视点的注视点数据,并根据所述注视点数据确定所述注视点在所述内容页面的目标区域中的分布比例;第二专注度获取单元,被配置为根据所述分布比例确定所述交互主体对所述内容页面的专注度信息。
在本申请的一些实施例中,基于以上技术方案,所述注视点确定单元包括:迹点位置获取子单元,被配置为获取所述眼动轨迹中各个视线迹点的迹点位置;视线迹点聚类子单元,被配置为根据所述迹点位置对所述视线迹点进行聚类处理得到迹点簇,并将所述迹点簇作为所述交互主体在所述内容页面上的注视点。
在本申请的一些实施例中,基于以上技术方案,所述注视点数据包括所述注视点的注视位置和注视次数;所述分布比例确定单元包括:位置及数量获取子单元,被配置为获取所述注视点中各个视线迹点的迹点位置以及迹点数量;注视位置确定子单元,被配置为根据各个所述视线迹点的迹点位置确定所述注视点的注视位置;注视次数确定子单元,被配置为根据各个所述视线迹点的迹点数量确定所述注视点的注视次数。
在本申请的一些实施例中,基于以上技术方案,所述注视点数据包括所述注视点的注视位置和注视次数;所述分布比例确定单元还包括:目标注视点确定子单元,被配置为根据所述注视点的注视位置确定位于所述内容页面的目标区域中的目标注视点;注视次数比例确定子单元,被配置为根据所述目标注视点的注视次数以及所述内容页面上所有注视点的注视次数确定所述注视点在所述内容页面的目标区域中的分布比例。
在本申请的一些实施例中,基于以上技术方案,所述专注度获取模块包括:图像采集单元,被配置为对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;眼动数据确定单元,被配置为根据所述交互主体的眼部运动图像确定所述交互主体的眼动事件数据;特征提取单元,被配置为对所述眼动事件数据进行特征提取,得到所述交互主体的眼动事件特征;特征映射单元,被配置为通过至少两个专注度预测模型分别对所述眼动事件特征进行映射处理,得到至少两个专注度预测信息;第三专注度获取单元,被配置为对所述至少两个专注度预测信息进行信息融合,得到所述交互主体对所述内容页面的专注度信息。
在本申请的一些实施例中,基于以上技术方案,所述专注度获取模块包括:位置调整单元,被配置为接收所述交互主体输入的内容移动指令,并根据所述内容移动指令调整所述目标内容在所述内容页面中的展示位置;第四专注度获取单元,被配置为根据所述目标内容在所述内容页面中的展示位置确定所述交互主体对所述内容页面的专注度信息。
在本申请的一些实施例中,基于以上技术方案,所述专注度获取模块包括:行为采集单元,被配置为采集所述交互主体对所述内容页面实施的交互行为,得到所述交互主体的交互行为序列;第五专注度获取单元,被配置为根据所述交互行为序列确定所述交互主体对所述内容页面的专注度信息。
根据本申请实施例的一个方面,提供一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如以上技术方案中的虚拟对象处理方法。
根据本申请实施例的一个方面,提供一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器被配置为经由执行所述可执行指令来执行如以上技术方案中的虚拟对象处理方法。
根据本申请实施例的一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如以上技术方案中的虚拟对象处理方法。
在本申请实施例提供的技术方案中,通过获取交互主体的专注度信息可以判断交互主体在查看内容页面时是否处于专注状态,只有当专注度信息满足预设条件时,可以确定该交互主体专注于内容页面的查看,此时才向其展示虚拟物品领取控件,以供其领取相应的虚拟物品作为奖励。而如果交互主体没有满足关于专注度的相关条件,则无法领取虚拟物品,因此可以有效避免交互主体利用作弊行为来获取奖励,不仅可以提高内容传播效果,而且可以提高虚拟物品分配的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性地示出了应用本申请技术方案的示例性系统架构框图。
图2示意性地示出了本申请一些实施例中信息处理方法的步骤流程图。
图3示意性地示出了在一应用场景中的内容选取页面的页面视图。
图4示意性地示出了本申请一些实施例中基于眼动轨迹确定专注度信息的方法步骤流程图。
图5示意性地示出了本申请实施例在一应用场景中触发并展示虚拟物品领取控件的页面视图。
图6示意性地示出了本申请一些实施例中的一种专注度信息的获取方法的步骤流程图。
图7示意性地示出了本申请实施例在一应用场景中的虚拟物品领取方法的步骤流程图。
图8示意性地示出了在平台端配置定点红包的界面视图。
图9示意性地示出了本申请实施例提供的信息处理装置的结构框图。
图10示意性示出了适于用来实现本申请实施例的电子设备的计算机系统结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
为便于理解本申请技术方案中的部分技术内容的实现方式,首先对本申请技术方案中涉及的人工智能技术做简要说明。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
图1示意性地示出了应用本申请技术方案的示例性系统架构框图。
如图1所示,系统架构100可以包括终端设备110、网络120和服务器130。终端设备110可以包括智能手机、平板电脑、笔记本电脑、台式电脑等各种电子设备。服务器130可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。网络120可以是能够在终端设备110和服务器130之间提供通信链路的各种连接类型的通信介质,例如可以是有线通信链路或者无线通信链路。
根据实现需要,本申请实施例中的系统架构可以具有任意数目的终端设备、网络和服务器。例如,服务器130可以是由多个服务器设备组成的服务器群组。另外,本申请实施例提供的技术方案可以应用于终端设备110,也可以应用于服务器130,或者可以由终端设备110和服务器130共同实施,本申请对此不做特殊限定。
举例而言,在用户通过阅读新闻资讯获取红包奖励的应用场景中,用户通过终端设备110上安装的客户端可以向服务器130发送获取新闻资讯的请求,服务器130响应于用户请求向终端设备110下发相应的资讯数据,并在终端设备110的交互界面上向用户呈现新闻资讯。在用户浏览新闻资讯的过程中,终端设备110可以实时地对用户进行图像采集,获得用户的眼部运动图像,进而进行图像分析得到用户在阅读过程中的视线移动轨迹。基于实时获取到的用户的视线移动轨迹可以有效辨识用户是否在专注地阅读新闻,只有在辨识结果满足一定条件的情况下才会向用户发放红包奖励。这种方式可以很好地达到鼓励用户认真阅读资讯内容的目的,同时也防止用户为了得到红包奖励而作弊的行为,有利于资讯平台对用户行为进行准确判断并进行科学合理地奖励发放。
下面结合具体实施方式对本申请提供的信息处理方法、信息处理装置、计算机可读介质以及电子设备等技术方案做出详细说明。在以下各实施例中,主要以用户阅读网络资讯并获取红包奖励作为示例进行说明,但本申请实际还可以应用于其他任意的相关或者相似的应用场景中,本申请并不以此为限。
图2示意性地示出了本申请一些实施例中信息处理方法的步骤流程图,该信息处理方法可以由终端设备执行,也可以由服务器执行,或者还可以由终端设备和服务器共同执行。本申请实施例以终端设备上执行的方法作为示例进行说明,如图2所示,该信息处理方法主要可以包括如下的步骤S210~步骤S250。
步骤S210:响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面。
步骤S220:获取交互主体对内容页面的专注度信息。
步骤S230:当专注度信息符合预设条件时,获取与当前展示的内容页面中的目标内容相关联的虚拟物品配置信息。
步骤S240:根据虚拟物品配置信息在交互界面上展示虚拟物品领取控件。
步骤S250:响应于对虚拟物品领取控件的领取触发操作,获取与虚拟物品配置信息对应的虚拟物品。
在本申请实施例提供的信息处理方法中,通过获取交互主体的专注度信息可以判断交互主体在查看内容页面时是否处于专注状态,只有当专注度信息满足预设条件时,可以确定该交互主体专注于内容页面的查看,此时才向其展示虚拟物品领取控件,以供其领取相应的虚拟物品作为奖励。而如果交互主体没有满足关于专注度的相关条件,则无法领取虚拟物品,因此可以有效避免交互主体利用作弊行为来获取奖励,不仅可以提高内容传播效果,而且可以提高虚拟物品分配的准确性。
下面分别对以上实施例中的信息处理方法的各个方法步骤做出详细说明。
在步骤S210中,响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面。
交互主体是通过终端设备的交互界面向终端设备实施交互行为的用户,终端设备可以通过交互界面接收交互主体输入的各种交互指令,在执行与交互指令相对应的操作后,可以再通过交互界面向交互主体返回指令执行结果。
若终端设备接收到的交互指令为交互主体输入的内容触发操作,则可以在交互界面上向其呈现相应的内容页面。内容触发操作可以是交互主体在交互界面上输入的手势操作,如单击、双击、长按、滑动等操作。另外,内容触发操作也可以是终端设备对交互主体进行声音信号采集形成的控制操作,例如用户可以通过手机上的麦克风输入作为内容触发操作的语音指令。
在一些可选的实施方式中,基于内容触发操作展示内容页面的方法可以包括如下的步骤S211至步骤S213。
步骤S211:在终端设备的交互界面上展示包括至少一个内容选取控件的内容选取页面。
图3示意性地示出了在一应用场景中的内容选取页面的页面视图。如图3所示,内容选取页面300为一新闻客户端的新闻列表,其中展示了各个新闻内容对应的内容选取控件,内容选取控件例如可以包括对应于新闻标题的文本控件301、对应于新闻图片的图像控件302以及对应于新闻视频的视频播放控件303等等。
步骤S212:接收交互主体输入的内容触发操作,并根据内容触发操作在至少一个内容选取控件中确定目标控件。
在图3所示的内容选取页面300中,交互主体输入的内容触发操作例如可以是点击操作,根据该内容触发操作在内容选取页面300上的位置信息可以从各个新闻内容对应的内容选取控件中确定一目标控件。
在一些可选的实施方式中,内容触发操作可以是基于图像采集得到的由交互主体的眼部动作确定的操作指令。例如,本申请实施例可以对交互主体进行图像采集,得到交互主体的眼部运动图像;然后根据眼部运动图像确定交互主体的眼部动作的动作类型;若眼部动作的动作类型为目标动作类型,则将该眼部动作确定为交互主体输入的内容触发操作。
举例而言,通过采集交互主体的眼部运动图像可以判断交互主体在查看各个内容选取控件时的眼部动作的动作类型,动作类型例如可以包括注视、扫视、眨眼等等,其中眨眼动作可以作为目标动作类型。当监测到交互主体在查看某一内容选取控件时实施了眨眼动作,可以确定该内容选取控件为目标控件。
步骤S213:获取与目标控件相对应的内容页面,并在终端设备的交互界面上展示内容页面。
内容页面是承载网络内容的页面,例如可以是新闻资讯页面,其上展示的内容可以包括文本、图像、视频、音频等各种媒介的网络内容。
通过执行步骤S211至步骤S213,可以基于交互主体选取操作在交互界面上展示内容页面。在交互主体查看内容页面的过程中,可以通过采集实时图像,对交互主体的交互行为进行监测,具体可以监测其眼部动作以辨识其交互状态。
在步骤S220中,获取交互主体对内容页面的专注度信息。
专注度信息用于表示交互主体在查看内容页面时的专注程度,该专注度信息可以通过计算专注度数值的方式定量表示交互主体的专注程度,另外也可以通过划分专注度等级的方式定性表示交互主体的专注程度。专注度信息主要可以通过对交互主体的交互行为进行监测和分析得到。
在本申请的一些实施例中,可以对交互主体进行眼动追踪以确定交互主体的眼动轨迹,从而基于眼动轨迹确定交互主体的专注度信息。图4示意性地示出了本申请一些实施例中基于眼动轨迹确定专注度信息的方法步骤流程图。如图4所示,基于眼动轨迹确定专注度信息的方法主要可以包括如下的步骤S410至步骤S430。
步骤S410:对交互主体进行图像采集,得到交互主体的眼部运动图像。
眼部运动图像是用于表征交互主体的眼部变化情况的图像,按照预设的采样率可以连续采集得到大量的眼部运动图像,例如通过手机等终端设备上配置的摄像头等图像采集器件可以对交互主体进行视频拍摄,得到的每一帧视频图像即作为一帧眼部运动图像,因此本步骤采集得到的眼部运动图像是按照时间顺序组合的图像序列。
在对交互主体进行图像采集时,可以对采集得到的图像进行人脸识别,获取每帧图像中的对应于交互主体的人脸区域,再进一步对人脸区域的图像进行眼部轮廓的识别,从而得到精细的眼部区域的图像。本步骤中进行的人脸识别以及眼部轮廓的识别,可以利用卷积神经网络(Convolutional Neural Networks,CNN)、循环神经网络(RecurrentNeural Network,RNN)或者长短期记忆网络(Long Short-Term Memory,LSTM)等各种类型的机器学习模型来实现。
步骤S420:根据眼部运动图像确定交互主体的眼动轨迹,眼动轨迹为交互主体的视线迹点在内容页面上的移动轨迹。
视线迹点是交互主体的视线与终端设备的交互界面的交点,例如用户在阅读一篇新闻资讯时,其视线迹点将跟随用户的阅读过程在新闻资讯中展示的文字、图像等内容之间进行移动,在一段时间内的移动轨迹便形成交互主体的眼动轨迹。
在本申请的一些实施例中,通过对交互主体的眼部运动图像进行图像处理和分析可以得到相应的眼动轨迹,追踪眼部运动轨迹的方法例如可以包括角膜反射法、瞳孔—角膜反射向量法等等。
其中,角膜反射法是根据角膜反射光斑的位置变化情况追踪视线轨迹的方法。角膜反射光是角膜反射照射在其表面上的光线。光线在经过角膜反射后会形成一个亮点,即角膜反射光斑。在人眼中,角膜凸出于眼球表面,因此当人眼运动时,光线从各个角度入射到角膜上,可以得到不同方向的角膜反射光,角膜反射光斑的位置也就随之在角膜上改变,通过眼部运动图像可以记录角膜反射光斑的位置变化情况,进一步利用图像处理技术可以实时地得到虚像位置,完成视线的跟踪。
瞳孔—角膜反射向量法是一种精度更高的眼动追踪方法,该方法可以通过对交互主体的眼部运动图像进行图像处理得到瞳孔中心位置。然后把角膜反射点作为图像采集器件和人体眼球的相对位置的基点,根据图像处理得到的瞳孔中心可以得到视线向量坐标。再通过一些校准程序,找出瞳孔中心与角膜反射点间组成的向量与视线迹点之间的映射函数,对视线向量坐标进行映射处理后,可以实时跟踪出视线迹点在终端设备的交互界面上的位置坐标。
步骤S430:获取移动轨迹与内容页面上的目标内容的位置关系,并根据位置关系确定交互主体对内容页面的专注度信息。
在内容页面上可以预先配置关联至虚拟物品的目标内容,该目标内容可以是内容页面中的任意类型的元素,例如可以是指定的文本字段、标点符号、图片或者各种图标icon等等。在内容页面上可以配置一个或者多个目标内容,其中每个目标内容可以关联至同一个或者不同的虚拟物品。与目标内容具有关联关系的虚拟物品可以是如上应用场景中的虚拟红包,也可以是虚拟徽章、虚拟奖状、虚拟代金券、虚拟优惠券等其他任意类型的对象。
当用户在专注地阅读新闻资讯或者文章时,一般会完整地阅读其中的文字并查看图片等关键内容,因此基于交互主体的眼动轨迹和目标内容之间的位置关系,可以在一定程度上评价该交互主体是否专注以及专注程度如何。例如,当检测到交互主体的眼动轨迹到达内容页面上目标内容所在的位置时,可以判定该交互主体处于专注状态。
通过执行以上的步骤S410至步骤S430,可以基于交互主体的眼动轨迹和目标内容的位置关系确定交互主体对内容页面的专注度信息。当然,在其他一些实施方式中,也可以采用其他任意的专注度信息获取方式,本申请并不以此为限。
在步骤S230中,当专注度信息符合预设条件时,获取与当前展示的内容页面中的目标内容相关联的虚拟物品配置信息。
针对不同类型的专注度信息,本申请实施例可以预先设定与之相应的判断条件,当专注度信息符合预设条件时,可以根据当前所展示的内容页面中的目标内容,获取与之相关联的虚拟物品配置信息。以图3所示的获取专注度信息的方法为例,相应的预设条件可以是判断交互主体的眼动轨迹是否到达内容页面上的目标内容的条件。当检测到交互主体的眼动轨迹在移动到内容页面上目标内容所在的位置时,即可获取与该目标内容相关联的虚拟物品配置信息,虚拟物品配置信息用于表示与虚拟物品的属性和领取方式等内容相关的信息,例如当虚拟物品为虚拟红包时,其虚拟物品配置信息可以包括虚拟红包的红包金额、红包数量、红包领取条件等等。在步骤S240中,根据虚拟物品配置信息在交互界面上展示虚拟物品领取控件。
在获取到虚拟物品配置信息后,可以基于该信息在交互界面上展示相应的虚拟物品领取控件,例如当虚拟物品为虚拟红包时,可以根据获取到的虚拟物品配置信息确定红包金额,进而在交互界面上展示对应金额的虚拟红包的领取控件。
在步骤S250中,响应于对虚拟物品领取控件的领取触发操作,获取与虚拟物品配置信息对应的虚拟物品。
领取触发操作可以是交互主体输入的针对虚拟物品领取控件的触发操作,例如可以点击、滑动等操作。仍以虚拟红包为例,当交互界面上展示虚拟红包的领取控件时,用户可以通过触发该领取控件,完成对虚拟红包的领取。
图5示意性地示出了本申请实施例在一应用场景中触发并展示虚拟物品领取控件的页面视图。如图5所示,在交互主体查看内容页面500的过程中,可以实时追踪交互主体的视线迹点得到视线轨迹。在内容页面500中指定某一文本字段作为目标内容501,当交互主体的实现轨迹到达目标内容501时,可以获取与目标内容501相关联的虚拟对象配置信息,进而展示相应的虚拟物品领取控件502。
在此基础上,响应于交互主体对虚拟物品领取控件502的触发操作,可以在交互界面上展示虚拟物品领取控件502的对象属性,并向交互主体转移与对象属性相对应的虚拟资源。例如,图5中所示的虚拟物品领取控件502为一虚拟红包的领取控件,当用户点击触发领取控件时,可以在交互界面上展示该虚拟红包的红包金额,同时将对应的金额划入当前用户的账户中,完成对用户阅读资讯内容的红包奖励。
在本申请的一些实施例中,虚拟物品配置信息可以包括虚拟物品的领取权限、领取数量上限、物品属性等多种信息中的一个或者多个。其中,领取权限表示能够领取虚拟物品的交互主体的权限信息,领取数量上限表示一个虚拟物品能够被多次领取的最大次数。
如果虚拟物品配置信息包括虚拟物品的领取权限,在根据虚拟物品配置信息在交互界面上展示虚拟物品时,可以先获取交互主体的主体属性信息,然后根据主体属性信息确定交互主体是否具有领取权限;如果交互主体具有领取权限,则在交互界面上展示虚拟物品的虚拟物品领取控件。而如果交互主体不具有领取权限,则可以拒绝展示该虚拟物品领取控件。举例而言,在一篇新闻资讯的文章中配置有一个虚拟红包,该虚拟红包的领取权限是首次打开该文章的用户。那么当一个用户在第一次打开该文章时,可以在满足条件时领取相应的虚拟红包,而当该用户通过刷新页面或者退出再进入等方式第二次打开该文章时,便不会触发文章中配置的虚拟红包。如此一来,可以避免用户通过刷文章的方式来重复领取红包奖励。
如果虚拟物品配置信息包括虚拟物品的领取数量上限,在根据虚拟物品配置信息在交互界面上展示虚拟物品时,可以先获取与目标内容相关的虚拟物品的领取次数;如果虚拟物品的领取次数小于领取数量上限,则在交互界面上展示虚拟物品;而如果虚拟物品的领取次数已经等于或者大于领取数量上限,则可以拒绝展示该虚拟物品领取控件。举例而言,在一篇新闻资讯的文章中配置有一个虚拟红包,该虚拟红包的领取数量上限为200,那么阅读该文章的前200名用户将有机会触发并领取该虚拟红包,而一旦该虚拟红包的领取次数达到200次,后续的其他用户便无法再继续领取。
交互主体对内容页面的专注度信息可以根据交互主体的交互行为来确定,例如可以根据交互主体的眼部运动或者手部运动等交互行为来确定其是否专注,在以上实施例中提供了基于交互主体的眼动轨迹与目标内容的位置关系确定专注度信息的方法,下面分别对其他几种专注度信息的获取方法做出说明。
图6示意性地示出了本申请一些实施例中的一种专注度信息的获取方法的步骤流程图。如图6所示,在本申请实施例中,获取交互主体与内容页面进行内容交互时的交互状态的方法主要可以包括如下的步骤S610至步骤S650。
步骤S610:对交互主体进行图像采集,得到交互主体的眼部运动图像。
步骤S620:根据眼部运动图像确定交互主体的眼动轨迹,眼动轨迹为交互主体的视线迹点在内容页面上的移动轨迹。
步骤S630:根据交互主体的眼动轨迹确定交互主体在内容页面上的注视点。
交互主体的眼动轨迹由各个时间节点下的视线迹点按照时间先后顺序连接而成,本步骤可以先获取眼动轨迹中各个视线迹点的迹点位置,然后根据迹点位置对视线迹点进行聚类处理得到迹点簇,并将迹点簇作为交互主体在内容页面上的注视点。通过对视线迹点进行聚类处理可以将位置相近的视线迹点划分至同一迹点簇中,由多个视线迹点组成的迹点簇构成一个注视点。
步骤S640:获取各个注视点的注视点数据,并根据注视点数据确定注视点在内容页面的目标区域中的分布比例。
注视点数据可以包括注视点的注视位置和注视次数。在获取一个注视点的注视点数据时,可以先获取该注视点中各个视线迹点的迹点位置以及迹点数量,然后根据各个视线迹点的迹点位置确定注视点的注视位置,并根据各个视线迹点的迹点数量确定注视点的注视次数。例如,在获取到各个视线迹点的迹点位置后,可以对各迹点位置的位置坐标求取平均值,计算得到的坐标平均值即作为注视点的注视位置。一个注视点对应的迹点簇中包括有一定数量的视线迹点,这些视线迹点的迹点数量可以直接作为注视点的注视次数,或者也可以对视线迹点的迹点数量按照预设比例或者换算公式进行换算处理后得到注视点的注视次数。
在获取到注视点的注视点数据后,可以根据注视点的注视位置确定位于内容页面的目标区域中的目标注视点,然后根据目标注视点的注视次数以及内容页面上所有注视点的注视次数确定注视点在内容页面的目标区域中的分布比例。目标区域是内容页面上的指定区域,落在目标区域内的目标注视点可以看做是交互主体专注的视线部分,而落在目标区域之外的注视点可以看做是交互主体非专注的视线部分。
步骤S650:根据分布比例确定交互主体对内容页面的专注度信息。
根据目标注视点在所有注视点中的占比大小可以衡量交互主体的专注程度,例如可以预先设定一比例阈值,当目标注视点的分布比例大于或者等于该比例阈值时,可以确定交互主体与内容页面进行内容交互时的专注度信息是专注状态;相反地,当目标注视点的分布比例小于该比例阈值时,可以确定交互主体与内容页面进行内容交互时的专注度信息是非专注状态。
在本申请的一些实施例中,可以利用预先训练的机器学习模型对专注度信息进行预测。具体地,可以先对交互主体进行图像采集,得到交互主体的眼部运动图像,然后根据交互主体的眼部运动图像确定交互主体的眼动事件数据;其中,眼动事件数据可以包括眨眼事件数据、注视事件数据、扫视事件数据等等。眨眼事件数据例如可以包括眨眼频率、眨眼次数、眨眼持续时间等数据,注视事件数据例如可以包括注视次数、数值偏差、注视频率等数据,扫视事件数据例如可以包括扫视长度、扫视频率、扫视次数等数据。通过对眼动事件数据进行特征提取,可以得到交互主体的眼动事件特征。通过至少两个专注度预测模型分别对眼动事件特征进行映射处理,得到至少两个专注度预测信息;最后对至少两个专注度预测信息进行信息融合,得到交互主体与内容页面进行内容交互时的专注度信息。通过使用多个专注度预测模型进行预测和融合的方式,可以避免单个模型预测误差大的问题,提高模型整体的预测精度。
在本申请的一些实施例中,可以基于交互主体对内容页面的移动操作来确定。具体而言,本申请实施例可以先接收交互主体输入的内容移动指令,并根据内容移动指令调整目标内容在内容页面中的展示位置;然后根据目标内容在内容页面中的展示位置确定交互主体与内容页面进行内容交互时的专注度信息。例如,用户在阅读新闻资讯的过程中,会通过滑动屏幕等方式调整资讯内容在交互界面上的显示位置,以便于阅读查看。当目标内容在交互主体的移动控制下移动至内容页面上的指定展示位置时,可以确定交互主体的专注度信息为专注状态,否则可以确定交互主体的专注度信息为非专注状态。
在本申请的一些实施例中,除了移动操作之外,还可以对交互主体的其他交互行为进行分析,从而基于各种交互行为来确定交互主体的专注度信息。具体而言,本申请实施例可以采集交互主体对内容页面实施的交互行为,得到交互主体的交互行为序列;然后根据交互行为序列确定交互主体对所述内容页面的专注度信息。例如,本申请实施例可以监测并采集交互主体在不同时刻对内容页面实施的交互行为,并记录每个交互行为的时间节点以及任意两个相邻交互行为之间的间隔时间(即无交互的停留时间),形成能够反映交互主体行为状态的交互行为序列,从而基于该交互行为序列确定交互主体的专注度信息。交互主体的交互行为例如可以包括用户对文章的滑动操作,也可以包括用户对文章中部分内容的忽略操作等等。
下面对本申请实施例提供的信息处理方法在一应用场景中的实现方式做出说明。图7示意性地示出了本申请实施例在一应用场景中的虚拟物品领取方法的步骤流程图,该应用场景主要涉及在平台端配置虚拟红包以及在用户端领取虚拟红包两个过程。服务器负责在平台端和用户端之间进行数据传输和处理。如图7所示,领取虚拟红包的方法可以包括如下步骤。
步骤S701:平台方编辑文章,选中文章中的某个关键词埋下定点红包。
图8示意性地示出了在平台端配置定点红包的界面视图。如图8所示,平台方可以选中文章中的某个关键词801,在触发埋定点红包的虚拟按钮802后,可以在页面上弹出红包设置窗口803。在红包设置窗口803上,可以具体设置红包的配置信息,例如可以设置红包金额为“0.2元”,设置红包的可领取次数为“200次”,设置面向用户为“全部”。
步骤S702:在平台方完成红包设置后,可以选择发布文章,将携带定点红包的文章上传至平台服务器。
步骤S703:定点红包的位置信息、具体金额以及发放个数等信息储存在后台服务器中。编辑后的文章通过系统推荐算法分发到用户端。
步骤S704:用户选择文章后开始阅读。
步骤S705:摄像头打开,用户端开始追踪用户的眼动轨迹及注视点,并实时将用户眼动轨迹及注视点数据上传到后台服务器中。
步骤S706:服务器根据用户端上传的用户眼动轨迹数据及注视点数据,开始计算用户阅读专注度。其中专注度指标为用户眼睛在某个特定时间段(以毫秒计算)在某个目标区域(兴趣区域)的注视点比率。若注视点比率超过一定值时,则判断该用户专注读文章。
步骤S707:判断用户的眼动轨迹是否到达平台方预埋的定点红包位置。
步骤S708:当用户眼动轨迹经过文章中预埋的定点红包位置时(文章中的某个词语),判断此时用户阅读专注度是否超过一定值(即判断用户是否认真读文章),若是的话,则弹出红包;若用户专注度未达到一定值,则不弹出红包,用户继续进行阅读。
步骤S709:服务器在接到弹出红包指令时,调出该红包具体金额数据,反馈到平台方并扣除平台方红包金额。此时用户端弹出红包,用户在领取红包后,可以继续阅读文章。
本申请技术方案根据用户阅读时的眼动轨迹或者其他交互行为,判断用户阅读文章的专注程度,在某些重点段落埋下红包,当用户看到这些部分时,结合用户的专注度自动弹出红包给用户奖励。这种方式很好的鼓励用户认真阅读文章,且避免用户为了获得红包而刷文章的行为,也有利于平台方对用户判断和科学的奖励发放。
应当注意,尽管在附图中以特定顺序描述了本申请中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
以下介绍本申请的装置实施例,可以用于执行本申请上述实施例中的虚拟对象处理方法。
图9示意性地示出了本申请实施例提供的信息处理装置的结构框图。如图9所示,信息处理装置900主要可以包括:页面展示模块910,被配置为响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;专注度获取模块920,被配置为获取交互主体对内容页面的专注度信息;配置信息获取模块930,被配置为当专注度信息符合预设条件时,获取与当前展示的内容页面中的目标内容相关联的虚拟物品配置信息;领取控件展示模块940,被配置为根据虚拟物品配置信息在交互界面上展示虚拟物品领取控件;虚拟物品获取模块950,被配置为响应于对虚拟物品领取控件的领取触发操作,获取与虚拟物品配置信息对应的虚拟物品。
在本申请的一些实施例中,基于以上各实施例,页面展示模块910包括:页面选取单元,被配置为在终端设备的交互界面上展示包括至少一个内容选取控件的内容选取页面;内容触发单元,被配置为接收交互主体输入的内容触发操作,并根据内容触发操作在至少一个内容选取控件中确定目标控件;页面展示单元,被配置为获取与目标控件相对应的内容页面,并在终端设备的交互界面上展示内容页面。
在本申请的一些实施例中,基于以上各实施例,内容触发单元包括:图像采集子单元,被配置为对交互主体进行图像采集,得到交互主体的眼部运动图像;类型确定子单元,被配置为根据眼部运动图像确定交互主体的眼部动作的动作类型;操作输入子单元,被配置为若眼部动作的动作类型为目标动作类型,则将眼部动作确定为交互主体输入的内容触发操作。
在本申请的一些实施例中,基于以上各实施例,虚拟物品配置信息包括虚拟物品的领取权限;领取控件展示模块包括:主体属性获取单元,被配置为获取交互主体的主体属性信息;触发权限确定单元,被配置为根据主体属性信息确定交互主体是否具有领取权限;第一控件展示单元,被配置为若交互主体具有领取权限,则在交互界面上展示用于领取虚拟物品的虚拟物品领取控件。
在本申请的一些实施例中,基于以上各实施例,虚拟物品配置信息包括虚拟物品的领取数量上限;领取控件展示模块940包括:领取次数获取单元,被配置为获取与目标内容相关的虚拟物品的领取次数;第二控件展示单元,被配置为若虚拟物品的领取次数小于领取数量上限,则在交互界面上展示用于领取虚拟物品的虚拟物品领取控件。
在本申请的一些实施例中,基于以上各实施例,专注度获取模块920包括:图像采集单元,被配置为对交互主体进行图像采集,得到交互主体的眼部运动图像;眼动轨迹确定单元,被配置为根据眼部运动图像确定交互主体的眼动轨迹,眼动轨迹为交互主体的视线迹点在内容页面上的移动轨迹;第一专注度获取单元,被配置为获取移动轨迹与内容页面上的目标内容的位置关系,并根据位置关系确定交互主体对内容页面的专注度信息。
在本申请的一些实施例中,基于以上各实施例,专注度获取模块920包括:图像采集单元,被配置为对交互主体进行图像采集,得到交互主体的眼部运动图像;眼动轨迹确定单元,被配置为根据眼部运动图像确定交互主体的眼动轨迹,眼动轨迹为交互主体的视线迹点在内容页面上的移动轨迹;注视点确定单元,被配置为根据交互主体的眼动轨迹确定交互主体在内容页面上的注视点;分布比例确定单元,被配置为获取各个注视点的注视点数据,并根据注视点数据确定注视点在内容页面的目标区域中的分布比例;第二专注度获取单元,被配置为根据分布比例确定交互主体对内容页面的专注度信息。
在本申请的一些实施例中,基于以上各实施例,注视点确定单元包括:迹点位置获取子单元,被配置为获取眼动轨迹中各个视线迹点的迹点位置;视线迹点聚类子单元,被配置为根据迹点位置对视线迹点进行聚类处理得到迹点簇,并将迹点簇作为交互主体在内容页面上的注视点。
在本申请的一些实施例中,基于以上各实施例,注视点数据包括注视点的注视位置和注视次数;分布比例确定单元包括:位置及数量获取子单元,被配置为获取注视点中各个视线迹点的迹点位置以及迹点数量;注视位置确定子单元,被配置为根据各个视线迹点的迹点位置确定注视点的注视位置;注视次数确定子单元,被配置为根据各个视线迹点的迹点数量确定注视点的注视次数。
在本申请的一些实施例中,基于以上各实施例,注视点数据包括注视点的注视位置和注视次数;分布比例确定单元还包括:
目标注视点确定子单元,被配置为根据注视点的注视位置确定位于内容页面的目标区域中的目标注视点;注视次数比例确定子单元,被配置为根据目标注视点的注视次数以及内容页面上所有注视点的注视次数确定注视点在内容页面的目标区域中的分布比例。
在本申请的一些实施例中,基于以上各实施例,专注度获取模块920包括:图像采集单元,被配置为对交互主体进行图像采集,得到交互主体的眼部运动图像;眼动数据确定单元,被配置为根据交互主体的眼部运动图像确定交互主体的眼动事件数据;特征提取单元,被配置为对眼动事件数据进行特征提取,得到交互主体的眼动事件特征;特征映射单元,被配置为通过至少两个专注度预测模型分别对眼动事件特征进行映射处理,得到至少两个专注度预测信息;第三专注度获取单元,被配置为对至少两个专注度预测信息进行信息融合,得到交互主体对内容页面的专注度信息。
在本申请的一些实施例中,基于以上各实施例,专注度获取模块920包括:位置调整单元,被配置为接收交互主体输入的内容移动指令,并根据内容移动指令调整目标内容在内容页面中的展示位置;第四专注度获取单元,被配置为根据目标内容在内容页面中的展示位置确定交互主体对内容页面的专注度信息。
在本申请的一些实施例中,基于以上各实施例,专注度获取模块920包括:行为采集单元,被配置为采集交互主体对内容页面实施的交互行为,得到交互主体的交互行为序列;第五专注度获取单元,被配置为根据交互行为序列确定交互主体对内容页面的专注度信息。
本申请各实施例中提供的虚拟对象处理装置的具体细节已经在对应的方法实施例中进行了详细的描述,此处不再赘述。
图10示意性地示出了用于实现本申请实施例的电子设备的计算机系统结构框图。
需要说明的是,图10示出的电子设备的计算机系统1000仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图10所示,计算机系统1000包括中央处理器1001(Central Processing Unit,CPU),其可以根据存储在只读存储器1002(Read-Only Memory,ROM)中的程序或者从存储部分1008加载到随机访问存储器1003(Random Access Memory,RAM)中的程序而执行各种适当的动作和处理。在随机访问存储器1003中,还存储有系统操作所需的各种程序和数据。中央处理器1001、在只读存储器1002以及随机访问存储器1003通过总线1004彼此相连。输入/输出接口1005(Input/Output接口,即I/O接口)也连接至总线1004。
以下部件连接至输入/输出接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如局域网卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至输入/输出接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本申请的实施例,各个方法流程图中所描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理器1001执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本申请实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (15)
1.一种信息处理方法,其特征在于,包括:
响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;
获取所述交互主体对所述内容页面的专注度信息;
当所述专注度信息符合预设条件时,获取与当前展示的所述内容页面中的目标内容相关联的虚拟物品配置信息;
根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件;
响应于对所述虚拟物品领取控件的领取触发操作,获取与所述虚拟物品配置信息对应的虚拟物品。
2.根据权利要求1所述的信息处理方法,其特征在于,所述响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面,包括:
在终端设备的交互界面上展示包括至少一个内容选取控件的内容选取页面;
接收交互主体输入的内容触发操作,并根据所述内容触发操作在所述至少一个内容选取控件中确定目标控件;
获取与所述目标控件相对应的内容页面,并在所述终端设备的交互界面上展示所述内容页面。
3.根据权利要求2所述的信息处理方法,其特征在于,所述接收交互主体输入的内容触发操作,包括:
对交互主体进行图像采集,得到所述交互主体的眼部运动图像;
根据所述眼部运动图像确定所述交互主体的眼部动作的动作类型;
若所述眼部动作的动作类型为目标动作类型,则将所述眼部动作确定为所述交互主体输入的内容触发操作。
4.根据权利要求1所述的信息处理方法,其特征在于,所述虚拟物品配置信息包括虚拟物品的领取权限;所述根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件,包括:
获取所述交互主体的主体属性信息;
根据所述主体属性信息确定所述交互主体是否具有所述领取权限;
若所述交互主体具有所述领取权限,则在所述交互界面上展示用于领取所述虚拟物品的虚拟物品领取控件。
5.根据权利要求1所述的信息处理方法,其特征在于,所述虚拟物品配置信息包括虚拟物品的领取数量上限;所述根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件,包括:
获取与所述目标内容相关的虚拟物品的领取次数;
若所述虚拟物品的领取次数小于所述领取数量上限,则在所述交互界面上展示用于领取所述虚拟物品的虚拟物品领取控件。
6.根据权利要求1所述的信息处理方法,其特征在于,所述获取所述交互主体对所述内容页面的专注度信息,包括:
对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;
根据所述眼部运动图像确定所述交互主体的眼动轨迹,所述眼动轨迹为所述交互主体的视线迹点在所述内容页面上的移动轨迹;
获取所述移动轨迹与所述内容页面上的目标内容的位置关系,并根据所述位置关系确定所述交互主体对所述内容页面的专注度信息。
7.根据权利要求1所述的信息处理方法,其特征在于,所述获取所述交互主体对所述内容页面的专注度信息,包括:
对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;
根据所述眼部运动图像确定所述交互主体的眼动轨迹,所述眼动轨迹为所述交互主体的视线迹点在所述内容页面上的移动轨迹;
根据所述交互主体的眼动轨迹确定所述交互主体在所述内容页面上的注视点;
获取各个所述注视点的注视点数据,并根据所述注视点数据确定所述注视点在所述内容页面的目标区域中的分布比例;
根据所述分布比例确定所述交互主体对所述内容页面的专注度信息。
8.根据权利要求7所述的信息处理方法,其特征在于,所述根据所述交互主体的眼动轨迹确定所述交互主体在所述内容页面上的注视点,包括:
获取所述眼动轨迹中各个视线迹点的迹点位置;
根据所述迹点位置对所述视线迹点进行聚类处理得到迹点簇,并将所述迹点簇作为所述交互主体在所述内容页面上的注视点。
9.根据权利要求8所述的信息处理方法,其特征在于,所述注视点数据包括所述注视点的注视位置和注视次数;所述获取各个所述注视点的注视点数据,包括:
获取所述注视点中各个视线迹点的迹点位置以及迹点数量;
根据各个所述视线迹点的迹点位置确定所述注视点的注视位置;
根据各个所述视线迹点的迹点数量确定所述注视点的注视次数。
10.根据权利要求7所述的信息处理方法,其特征在于,所述注视点数据包括所述注视点的注视位置和注视次数;所述根据所述注视点数据确定所述注视点在所述内容页面的目标区域中的分布比例,包括:
根据所述注视点的注视位置确定位于所述内容页面的目标区域中的目标注视点;
根据所述目标注视点的注视次数以及所述内容页面上所有注视点的注视次数确定所述注视点在所述内容页面的目标区域中的分布比例。
11.根据权利要求1所述的信息处理方法,其特征在于,所述获取所述交互主体对所述内容页面的专注度信息,包括:
对所述交互主体进行图像采集,得到所述交互主体的眼部运动图像;
根据所述交互主体的眼部运动图像确定所述交互主体的眼动事件数据;
对所述眼动事件数据进行特征提取,得到所述交互主体的眼动事件特征;
通过至少两个专注度预测模型分别对所述眼动事件特征进行映射处理,得到至少两个专注度预测信息;
对所述至少两个专注度预测信息进行信息融合,得到所述交互主体对所述内容页面的专注度信息。
12.根据权利要求1所述的信息处理方法,其特征在于,所述获取所述交互主体对所述内容页面的专注度信息,包括:
接收所述交互主体输入的内容移动指令,并根据所述内容移动指令调整所述目标内容在所述内容页面中的展示位置;
根据所述目标内容在所述内容页面中的展示位置确定所述交互主体对所述内容页面的专注度信息。
13.根据权利要求1所述的信息处理方法,其特征在于,所述获取所述交互主体对所述内容页面的专注度信息,包括:
采集所述交互主体对所述内容页面实施的交互行为,得到所述交互主体的交互行为序列;
根据所述交互行为序列确定所述交互主体对所述内容页面的专注度信息。
14.一种信息处理装置,其特征在于,包括:
页面展示模块,被配置为响应于交互主体的内容触发操作,在终端设备的交互界面上展示内容页面;
专注度获取模块,被配置为获取所述交互主体对所述内容页面的专注度信息;
配置信息获取模块,被配置为当所述专注度信息符合预设条件时,获取与当前展示的所述内容页面中的目标内容相关联的虚拟物品配置信息;
领取控件展示模块,被配置为根据所述虚拟物品配置信息在所述交互界面上展示虚拟物品领取控件;
虚拟物品获取模块,被配置为响应于对所述虚拟物品领取控件的领取触发操作,获取与所述虚拟物品配置信息对应的虚拟物品。
15.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至13中任意一项所述的信息处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010855646.3A CN114090862A (zh) | 2020-08-24 | 2020-08-24 | 信息处理方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010855646.3A CN114090862A (zh) | 2020-08-24 | 2020-08-24 | 信息处理方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114090862A true CN114090862A (zh) | 2022-02-25 |
Family
ID=80295492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010855646.3A Pending CN114090862A (zh) | 2020-08-24 | 2020-08-24 | 信息处理方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114090862A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115049441A (zh) * | 2022-07-26 | 2022-09-13 | 星河视效科技(北京)有限公司 | 基于交互式终端获取虚拟物品的方法、装置及电子设备 |
CN116781965A (zh) * | 2023-08-25 | 2023-09-19 | 深圳有咖互动科技有限公司 | 虚拟物品合成方法、装置、电子设备和计算机可读介质 |
CN116895337A (zh) * | 2023-09-07 | 2023-10-17 | 智菲科技集团有限公司 | 一种合成生物元件数据库系统 |
-
2020
- 2020-08-24 CN CN202010855646.3A patent/CN114090862A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115049441A (zh) * | 2022-07-26 | 2022-09-13 | 星河视效科技(北京)有限公司 | 基于交互式终端获取虚拟物品的方法、装置及电子设备 |
CN116781965A (zh) * | 2023-08-25 | 2023-09-19 | 深圳有咖互动科技有限公司 | 虚拟物品合成方法、装置、电子设备和计算机可读介质 |
CN116781965B (zh) * | 2023-08-25 | 2023-11-24 | 深圳有咖互动科技有限公司 | 虚拟物品合成方法、装置、电子设备和计算机可读介质 |
CN116895337A (zh) * | 2023-09-07 | 2023-10-17 | 智菲科技集团有限公司 | 一种合成生物元件数据库系统 |
CN116895337B (zh) * | 2023-09-07 | 2023-11-17 | 智菲科技集团有限公司 | 一种合成生物元件数据库系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210081650A1 (en) | Command Processing Using Multimodal Signal Analysis | |
Dewan et al. | Engagement detection in online learning: a review | |
CN114090862A (zh) | 信息处理方法、装置及电子设备 | |
Huynh et al. | Engagemon: Multi-modal engagement sensing for mobile games | |
KR20190025549A (ko) | 정신 장애들의 치료를 위한 이동 및 착용 가능한 비디오 캡처 및 피드백 플랫-폼들 | |
WO2018127782A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
EP2972662A1 (en) | Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals | |
US20220319536A1 (en) | Emotion recognition method and emotion recognition device using same | |
Chen et al. | Predicting opportune moments to deliver notifications in virtual reality | |
CN110446996A (zh) | 一种控制方法、终端及系统 | |
Hu | Gaze analysis and prediction in virtual reality | |
Edughele et al. | Eye-tracking assistive technologies for individuals with amyotrophic lateral sclerosis | |
KR20190067433A (ko) | 텍스트-리딩 기반의 리워드형 광고 서비스 제공 방법 및 이를 수행하기 위한 사용자 단말 | |
Jeong et al. | MAC: multimodal, attention-based cybersickness prediction modeling in virtual reality | |
Xiang et al. | A multi-modal driver emotion dataset and study: Including facial expressions and synchronized physiological signals | |
CN111339878A (zh) | 一种基于眼动数据的修正型实时情感识别方法及系统 | |
CN115299945A (zh) | 一种注意力及疲劳程度的评估方法以及可穿戴设备 | |
Fedotov et al. | Towards real-time contextual touristic emotion and satisfaction estimation with wearable devices | |
Moharana et al. | Video based eye blink analysis for psychological state determination | |
Hamdy et al. | Affective games: a multimodal classification system | |
CN114129164B (zh) | 一种自闭症谱系障碍风险检测系统、检测终端及云服务器 | |
You et al. | Cognitive Mechanism and Evaluation Method of Human-Machine Interaction in Intelligent Vehicle Cockpit | |
Hupont et al. | From a discrete perspective of emotions to continuous, dynamic, and multimodal affect sensing | |
CN108694619A (zh) | 电影票房预测方法和系统 | |
Liu et al. | User Engagement with Driving Simulators: An Analysis of Physiological Signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |