CN110221695A - 在虚拟现实设备中调整弹幕的显示属性的方法和装置 - Google Patents
在虚拟现实设备中调整弹幕的显示属性的方法和装置 Download PDFInfo
- Publication number
- CN110221695A CN110221695A CN201910470986.1A CN201910470986A CN110221695A CN 110221695 A CN110221695 A CN 110221695A CN 201910470986 A CN201910470986 A CN 201910470986A CN 110221695 A CN110221695 A CN 110221695A
- Authority
- CN
- China
- Prior art keywords
- barrage
- display area
- predetermined display
- user
- adjusted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 113
- 230000000007 visual effect Effects 0.000 claims description 100
- 238000004590 computer program Methods 0.000 claims description 4
- 210000001508 eye Anatomy 0.000 claims 1
- 230000008569 process Effects 0.000 description 13
- 102100029768 Histone-lysine N-methyltransferase SETD1A Human genes 0.000 description 6
- 101000865038 Homo sapiens Histone-lysine N-methyltransferase SETD1A Proteins 0.000 description 6
- 101150117538 Set2 gene Proteins 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种在虚拟现实设备中调整弹幕的显示属性的方法和装置,其中,该方法包括:当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息;根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕;确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。根据本申请的方案,能够在虚拟现实设备中通过对佩戴虚拟现实设备的用户进行眼球追踪,来自动调整视频播放页面上呈现的全部或部分弹幕的显示属性,从而给用户带来更好的观看体验。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种用于在虚拟现实设备中调整弹幕的显示属性的技术方案。
背景技术
弹幕是指在网络上观看视频时弹出的评论性字幕。目前,弹幕的使用越来越广泛,例如,在视频播放的同时在屏幕上显示弹幕,一些球赛或综艺节目的直播也加入了弹幕。现有的弹幕主要用在2D平面显示区域上,弹幕通常按照默认的显示设置或者用户人工设定的显示设置来进行显示,例如在视频播放中用户发送的多条弹幕按照默认的显示设置从屏幕右端弹出,向左平移滑动。
发明内容
本申请的目的是提供一种调整弹幕的显示属性的方法、装置、虚拟现实设备和计算机可读存储介质。
根据本申请的一个实施例,提供一种在虚拟现实设备中调整弹幕的显示属性的方法,其中,该方法包括:
当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息;
根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕;
确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
根据本申请的另一个实施例,还提供了一种在虚拟现实设备中调整弹幕的显示属性的装置,其中,该装置包括:
用于当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息的装置;
用于根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的装置;
用于确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的装置。
根据本申请的另一个实施例,还提供了一种虚拟现实设备,其中,所述虚拟现实设备包括:
存储器,用于存储一个或多个程序;
一个或多个处理器,与所述存储器相连,
当所述一个或多个程序被所述一个或者多个处理器执行时,使得所述一个或多个处理器执行如本申请所述的在虚拟现实设备中调整弹幕的显示属性的方法。
根据本申请的另一个实施例,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序可被处理器执行本申请所述的在虚拟现实设备中调整弹幕的显示属性的方法。
与现有技术相比,本申请具有以下优点:能够在虚拟现实设备中通过对佩戴虚拟现实设备的用户进行眼球追踪,来自动调整视频播放页面上呈现的全部或部分弹幕的显示属性,从而给用户带来更好的观看体验。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本申请一个实施例的用于在虚拟现实设备中调整弹幕的显示属性的方法的流程示意图;
图2为本申请一个实施例的用于在虚拟现实设备中调整弹幕的显示属性的装置的结构示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
在上下文中所称“设备”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的程序指令来执行预定处理过程,或是由专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)等硬件执行预定处理过程,或是由上述二者组合来实现。
本申请的技术方案主要由虚拟现实设备来实现。所述虚拟现实设备包括任何基于虚拟现实技术来营造虚拟的沉浸式体验的可穿戴智能设备,如VR(Virtual Reality,虚拟现实)一体机、AR(AugmentedReality,增强现实)设备、MR(Mixed Reality,混合现实)设备等。
需要说明的是,上述虚拟现实设备仅为举例,其他现有的或今后可能出现的虚拟现实设备如可适用于本申请,也应包含在本申请保护范围以内,并以引用方式包含于此。
本文后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本申请的示例性实施例的目的。但是本申请可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本申请作进一步详细描述。
图1为本申请一个实施例的用于在虚拟现实设备中调整弹幕的显示属性的方法的流程示意图。本实施例的方法包括步骤S1、步骤S2和步骤S3。
在步骤S1中,当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息。
其中,所述眼球追踪信息包括任何通过对用户进行眼球追踪所获得的信息;优选地,所述眼球追踪信息包括但不限于追踪到的用户的视觉焦点的位置信息、用户的眨眼频率等。在一些实施例中,对用户的一次眼球追踪过程是一个持续的过程,当停止眼球追踪时表示本次眼球追踪结束,后续再次启动眼球追踪时认为是对用户的另一次眼球追踪过程;所述虚拟现实设备可在多种情况下停止眼球追踪,如当视频播放页面中持续一段时间(如5秒)没有弹幕时停止眼球追踪,又如当接收到来自用户的用于指示停止眼球追踪的指令时停止眼球追踪。
在一些实施例中,一旦虚拟现实设备中当前呈现视频播放页面,所述虚拟现实设备便启动对所述用户的眼球追踪。
在另一些实施例中,当虚拟现实设备中当前呈现视频播放页面,且所述视频播放页面中当前呈现有弹幕(或者呈现有超过预定数量的弹幕)时,所述虚拟现实设备启动对所述用户的眼球追踪。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息的实现方式,均应包含在本申请的范围内。
在步骤S2中,所述虚拟现实设备根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕。
其中,所述虚拟现实设备根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的实现方式包括但不限于:
1)所述步骤S2包括步骤S21和步骤S22。在步骤S21中,所述虚拟现实设备根据所述眼球追踪信息,判断当前是否存在获得或失去用户的视觉焦点的弹幕;在步骤S22中,当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备将所述获得或失去用户的视觉焦点的弹幕确定为待调整的弹幕。
作为一个示例,在步骤S21中,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点落在所述视频播放页面上的位置,并判断该位置是否呈现有弹幕,若该位置呈现有弹幕P1,则确定P1获得用户的视觉焦点(若该位置没有弹幕,则认为当前没有弹幕获得用户的视觉焦点);之后,在步骤S22中,所述虚拟现实设备将P1确定为待调整的弹幕。
作为另一个示例,在步骤S21中,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点从弹幕P2转移至弹幕P3,则确定P3获得用户当前的视觉焦点,且P2失去用户的视觉焦点,则在后续的步骤S22中,所述虚拟现实设备将P2和P3确定为待调整的弹幕。
作为再一个示例,在步骤S21中,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点从弹幕P4转移至视频播放页面中未呈现弹幕的位置,所述虚拟现实设备确定弹幕P4失去用户的视觉焦点;在步骤S22中,所述虚拟现实设备将P4确定为待调整的弹幕。
作为本实现方式的一种可选方案,所述步骤S2还包括:当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
其中,当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备可采用多种实现方式来将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
作为一个示例,当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备将距离该弹幕最近的预定数量个其他弹幕确定为待调整的弹幕。
作为另一个示例,当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备将与该弹幕之间的距离不超过预定距离阈值的其他弹幕确定为待调整的弹幕。
作为本实现方式的另一种可选方案,所述步骤S2还包括:当确定当前存在获得用户的视觉焦点的弹幕时(或者当确定当前存在获得用户的视觉焦点的弹幕,且该弹幕获得用户的视觉焦点的时间达到第一预定时间时),所述虚拟现实设备提取该弹幕中的关键词;之后,所述虚拟现实设备根据所述关键词,从所述所有弹幕中确定与所述关键词相关联的至少一个其他弹幕(如包含所述关键词的其他弹幕、与所述关键词的关联度大于预定阈值的其他弹幕等),并将所述至少一个其他弹幕确定为待调整的弹幕。可选地,所述虚拟现实设备可记录所述关键词,以当后续呈现与所述关键词相关联的弹幕时,调整该等后续呈现的弹幕的显示属性。其中,上下文中所述的弹幕的显示属性包括任何与弹幕的显示相关的属性,弹幕的显示属性包括但不限于:弹幕的出入方式(如从右向左滑动、随机位置淡入淡出等)、弹幕速度、弹幕字体、弹幕颜色、弹幕的透明度、允许同时呈现的弹幕数量、弹幕弹出的时间间隔等。
需要说明的是,本实现方式1)中的上述两种可选方案可以相互结合,例如,当确定当前存在获得用户的视觉焦点的弹幕时(或者当确定当前存在获得用户的视觉焦点的弹幕,且该弹幕获得用户的视觉焦点的时间达到第一预定时间时),所述虚拟现实设备在将该弹幕作为待调整的弹幕的同时,将位于该弹幕附近一定范围内的其他弹幕也作为待调整的弹幕,并且,所述虚拟现实设备提取该弹幕中的关键词,并从当前呈现的所有弹幕中选择出包含所述关键词的其他弹幕,并将选择出的其他弹幕也确定为待调整的弹幕。
2)所述视频播放页面包括多个预定显示区域,所述步骤S2包括步骤S23和步骤S24。在步骤S23中,所述虚拟现实设备根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域;在步骤S24中,对于所述至少一个预定显示区域中的每个预定显示区域,所述虚拟现实设备将该预定显示区域中的全部或部分弹幕确定为待调整的弹幕。
其中,可将所述视频播放页面中用于呈现弹幕的区域预先划分为多个预定显示区域。在一些实施例中,考虑到虚拟现实设备中播放的VR视频的每一帧画面都是全景图片,可基于用户的视线角度来将所述视频播放页面中用于呈现弹幕的区域预先划分为多个预定显示区域。在一些实施例中,可将用于呈现弹幕的区域平均划分为多个预定显示区域。
在一些实施例中,各个预定显示区域可对应相同的或不同的初始显示属性(例如,各个预定显示区域对应的弹幕初入方式均为“淡入淡出”、各个预定显示区域对应不同的字体颜色等),且可选地,每个预定显示区域还可预先设置有对应的可选调整策略。
在步骤S23中,所述虚拟现实设备可采用多种实现方式来根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域。
在一些实施例中,所述步骤S23包括以下步骤:所述虚拟现实设备根据所述眼球追踪信息,从所述多个预定显示区域中选择出当前获得或失去所述用户的视觉焦点的预定显示区域。
作为一个示例,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点落在所述视频播放页面上的位置,当该位置落入所述多个预定显示区域中的一个预定显示区域A1时,所述虚拟现实设备确定该预定显示区域A1获得所述用户的视觉焦点,则所述虚拟现实设备从所述多个预定显示区域中选择出预定显示区域A1。
作为另一个示例,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点从预定显示区域A2转移至预定显示区域A3,也即预定显示区域A3获得所述用户当前的视觉焦点且预定显示区域A2失去所述用户的视觉焦点,则所述虚拟现实设备从所述多个预定显示区域中选择出预定显示区域A2和A3。
作为再一个示例,所述虚拟现实设备根据所述眼球追踪信息,确定用户当前的视觉焦点从预定显示区域A4转移至非用于显示弹幕的区域,也即预定显示区域A4失去所述用户的视觉焦点,则所述虚拟现实设备从所述多个预定显示区域中选择出预定显示区域A4。
可选地,若所述虚拟现实设备已确定当前存在获得用户的视觉焦点的弹幕,则可直接从所述多个预定显示区域中选择出该弹幕所位于的预定显示区域。
在一些实施例中,所述步骤S23包括以下步骤:所述虚拟现实设备根据所述眼球追踪信息,确定当前获得所述用户的视觉焦点的预定显示区域,之后,所述虚拟现实设备判断该预定显示区域获得视觉焦点的持续时间是否达到第二预定时间,并当所述持续时间达到第二预定时间时选择该预定显示区域。
在一些实施例中,所述步骤S23包括以下步骤:所述虚拟现实设备根据所述眼球追踪信息,获得所述用户的视觉焦点的移动轨迹,之后,所述虚拟现实设备根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。
其中,所述虚拟现实设备可采用多种方式根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。作为一个示例,所述虚拟现实设备根据所述移动轨迹,从所述多个预定显示区域中选择用户的视觉焦点最近经过的两个预定显示区域。作为另一个示例,所述虚拟现实设备根据所述移动轨迹,确定用户的视觉焦点最常停留的预定显示区域,并选择该预定显示区域。
在一些实施例中,上述根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域的步骤包括:根据所述移动轨迹以及所述多个预定显示区域的位置信息,从所述多个预定显示区域中选择至少一个预定显示区域。其中,所述位置信息包括与所述多个预定显示区域的位置相关的任何信息,如各个预定显示区域在空间中的坐标信息、各个预定显示区域之间的相对位置关系等。
作为一个示例,所述虚拟现实设备根据移动轨迹以及所述多个预定显示区域的位置信息,预测用户的视觉焦点可能将要进入的预定显示区域,并选择该预测的预定显示区域,基于此,可在用户的视觉焦点落入该预测的预定显示区域之前调整该预测的预定显示区域中的弹幕的显示属性,使得调整操作相对用户视觉感受来讲不会突兀,从而给用户带来更好的视觉体验。
在步骤S24中,对于所选择出的每个预定显示区域,所述虚拟现实设备将该预定显示区域中的全部弹幕确定为待调整的弹幕。例如,对于所选择出的当前失去用户焦点的预定显示区域,所述虚拟现实设备将该预定显示区域中的全部弹幕确定为待调整的弹幕;又例如,对于所选择出的当前获得用户的视觉焦点的预定显示区域,所述虚拟现实设备将该预定显示区域中距离用户的视觉焦点较近的部分弹幕确定为待调整的弹幕。
3)所述虚拟现实设备根据所述眼球追踪信息,判断用户的当前观看状态,当用户的当前观看状态为预定状态时,将所述视频播放页面上呈现的所有弹幕均作为待调整的弹幕。
在一些实施例中,设定预定状态包括疲劳状态和轻松状态(可选地,每种预定状态可对应不同的预定调整策略),所述虚拟现实设备根据所述眼球追踪信息,获得用户的眨眼频率,若所述用户的眨眼频率大于等于第一频率阈值,则确定用户的当前观看状态为疲劳状态,若所述用户的眨眼频率小于等于第二频率阈值(所述第二频率阈值小于所述第一频率阈值),则确定用户的当前观看状态为轻松状态,若所述用户的眨眼频率小于所述第一频率阈值且大于所述第二频率阈值,则确定用户当前观看状态为正常状态(即非预定状态)。
需要说明的是,上述步骤S2的各种实现方式可以相互结合,例如,所述虚拟现实设备可同时执行上述实现方式1)和2)来确定待调整的弹幕。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的实现方式,均应包含在本申请的范围内。
在步骤S3中,虚拟现实设备确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
其中,所述调整策略信息用于指示所述至少一个弹幕对应的调整策略。其中,所述调整策略信息可用于指示一个或多个调整策略,一个调整策略可能仅对应一个弹幕,也可能对应多个弹幕。作为一个示例,待调整的弹幕包括M1、M2、M3,所述调整策略信息用于指示:与M1对应的调整策略为N1、与M2对应的调整策略为N2、与M3对应的调整策略为N3。作为另一个示例,待调整的弹幕包括M4、M5、M6,所述调整策略信息用于指示:与待调整的所有弹幕(M4、M5和M6)对应的调整策略为N3。
其中,所述调整操作包括任何用于调整弹幕的显示属性的操作,如调整弹幕的显示位置、调整弹幕的字体或颜色、调整弹幕的透明度或透明度变化方式、调整弹幕的出入方式、调整弹幕速度等。
其中,虚拟现实设备可采用多种实现方式来确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
作为一种示例的实现方式,所述步骤S3进一步包括:对于所述至少一个弹幕中的每个弹幕,获得该弹幕的当前显示属性,并根据该弹幕的当前显示属性确定与该弹幕对应的调整策略信息,并根据与该弹幕对应的调整策略信息调整该弹幕的显示属性。
在一些实施例中,可针对弹幕的每种显示属性设置相应的调整规则,以使所述虚拟现实设备能够基于所设置的各项调整规则,并结合弹幕的当前显示属性,来确定与该弹幕对应的调整策略信息。例如,预先设置对于出入方式为淡入淡出的弹幕采用如下调整规则:当弹幕获得用户的视觉焦点时,将该弹幕的透明度调整为0且保持不变,直至该弹幕失去用户的视觉焦点,而当弹幕失去用户的视觉焦点时按照淡入淡出方式对应的初始设置,使得该弹幕的透明度从0逐渐变为1(即使该弹幕逐渐淡出);则当待调整的一个弹幕为获得用户的视觉焦点的弹幕时,所述虚拟现实设备结合上述调整规则确定该弹幕对应的调整策略信息,该调整策略信息指示该弹幕的透明度调整为0且保持不变,直至该弹幕失去用户的视觉焦点;之后,所述虚拟现实设备根据该弹幕对应的调整策略信息将该弹幕的透明度调整为0且保持不变。
在一些实施例中,待调整的弹幕为多个且包括获得焦点的弹幕,其中,所述获得焦点的弹幕与其他待调整的弹幕对应不同的调整策略。更优选地,所述获得焦点的弹幕与其他待调整的弹幕对应相反的调整策略。
作为另一种示例的实现方式,所述步骤S3进一步包括:将待调整的多个弹幕划分为多个集合;确定与所述多个弹幕对应的调整策略信息,该调整策略信息用于指示所述多个集合中的每个集合对应的调整策略;对于所述多个集合中的每个集合,根据该集合对应的调整策略,调整该集合中包含的各个弹幕的显示属性。其中,包含在同一个集合中的各个弹幕对应相同的调整策略。
其中,所述虚拟现实设备可采用多种方式将待调整的多个弹幕划分为多个集合。例如,所述虚拟现实设备将距离较近的弹幕划分为一个集合;又例如,所述视频播放页面包括多个预定显示区域,所述虚拟现实设备将位于同一个预定显示区域的弹幕划分为一个集合。
作为一个示例,所述虚拟现实设备将待调整的多个弹幕划分为两个集合Set1和Set2,并与该多个弹幕对应的调整策略信息,该调整策略信息指示Set1对应的调整策略是将弹幕颜色变更为绿色、Set2对应的调整策略是将弹幕透明度从0逐渐变为1;之后,所述虚拟现实设备根据该调整策略信息将Set1中的每个弹幕的弹幕颜色从白色变更为绿色,并将Set2中的每个弹幕的透明度从0逐渐变为1。
在一些实施例中,待调整的多个弹幕被划分为两个集合,该两个集合对应相反的调整策略。
作为再一种示例的实现方式,在步骤S2中,当用户的当前观看状态为预定状态时,所述虚拟现实设备将所述视频播放页面上呈现的所有弹幕均作为待调整的弹幕;则在步骤S3中,所述虚拟现实设备确定与所有弹幕对应的调整策略信息,该调整策略信息用于指示所有弹幕均采用与该预定方式对应的调整策略,之后,所述虚拟现实设备根据与该预定方式对应的调整策略调整所有弹幕的显示属性。需要说明的是,可选地,该实现方式中,所述虚拟现实设备将根据与该预定方式对应的调整策略调整所述视频播放页面中后续呈现的弹幕的显示属性。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的实现方式,均应包含在本申请的范围内。
根据本实施例的方案,能够在虚拟现实设备中通过对佩戴虚拟现实设备的用户进行眼球追踪,来自动调整视频播放页面上呈现的全部或部分弹幕的显示属性,从而给用户带来更好的观看体验。
图2为本申请一个实施例的用于在虚拟现实设备中调整弹幕的显示属性的装置的结构示意图。该用于在虚拟现实设备中调整弹幕的显示属性的装置(以下简称为“弹幕调整装置”)包括眼球追踪装置1、确定装置2以及调整装置3。
所述眼球追踪装置1用于当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息。
其中,所述眼球追踪信息包括任何通过对用户进行眼球追踪所获得的信息;优选地,所述眼球追踪信息包括但不限于追踪到的用户的视觉焦点的位置信息、用户的眨眼频率等。在一些实施例中,对用户的一次眼球追踪过程是一个持续的过程,当停止眼球追踪时表示本次眼球追踪结束,后续再次启动眼球追踪时认为是对用户的另一次眼球追踪过程;所述虚拟现实设备可在多种情况下停止眼球追踪,如当视频播放页面中持续一段时间(如5秒)没有弹幕时停止眼球追踪,又如当接收到来自用户的用于指示停止眼球追踪的指令时停止眼球追踪。
在一些实施例中,一旦虚拟现实设备中当前呈现视频播放页面,眼球追踪装置1便启动对所述用户的眼球追踪。
在另一些实施例中,当虚拟现实设备中当前呈现视频播放页面,且所述视频播放页面中当前呈现有弹幕(或者呈现有超过预定数量的弹幕)时,眼球追踪装置1启动对所述用户的眼球追踪。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息的实现方式,均应包含在本申请的范围内。
确定装置2用于根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕。
其中,所述确定装置2根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的实现方式包括但不限于:
1)所述确定装置2根据所述眼球追踪信息,判断当前是否存在获得或失去用户的视觉焦点的弹幕;当确定存在获得或失去用户的视觉焦点的弹幕时,所述确定装置2将所述获得或失去用户的视觉焦点的弹幕确定为待调整的弹幕。
作为一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点落在所述视频播放页面上的位置,并判断该位置是否呈现有弹幕,若该位置呈现有弹幕P1,则确定P1获得用户的视觉焦点(若该位置没有弹幕,则认为当前没有弹幕获得用户的视觉焦点);之后,所述确定装置2将P1确定为待调整的弹幕。
作为另一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点从弹幕P2转移至弹幕P3,则确定P3获得用户当前的视觉焦点,且P2失去用户的视觉焦点,则所述确定装置2将P2和P3确定为待调整的弹幕。
作为再一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点从弹幕P4转移至视频播放页面中未呈现弹幕的位置,所述确定装置2确定弹幕P4失去用户的视觉焦点;则所述确定装置2将P4确定为待调整的弹幕。
作为本实现方式的一种可选方案,所述确定装置2还用于:当确定存在获得或失去用户的视觉焦点的弹幕时,所述虚拟现实设备将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
其中,当确定存在获得或失去用户的视觉焦点的弹幕时,所所述确定装置2可采用多种实现方式来将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
作为一个示例,当确定存在获得或失去用户的视觉焦点的弹幕时,所述确定装置2将距离该弹幕最近的预定数量个其他弹幕确定为待调整的弹幕。
作为另一个示例,当确定存在获得或失去用户的视觉焦点的弹幕时,所述确定装置2将与该弹幕之间的距离不超过预定距离阈值的其他弹幕确定为待调整的弹幕。
作为本实现方式的另一种可选方案,所述确定装置2还用于:当确定当前存在获得用户的视觉焦点的弹幕时(或者当确定当前存在获得用户的视觉焦点的弹幕,且该弹幕获得用户的视觉焦点的时间达到第一预定时间时),提取该弹幕中的关键词;之后,根据所述关键词,从所述所有弹幕中确定与所述关键词相关联的至少一个其他弹幕(如包含所述关键词的其他弹幕、与所述关键词的关联度大于预定阈值的其他弹幕等),并将所述至少一个其他弹幕确定为待调整的弹幕。可选地,所述虚拟现实设备可记录所述关键词,以当后续呈现与所述关键词相关联的弹幕时,调整该等后续呈现的弹幕的显示属性。其中,上下文中所述的弹幕的显示属性包括任何与弹幕的显示相关的属性,弹幕的显示属性包括但不限于:弹幕的出入方式(如从右向左滑动、随机位置淡入淡出等)、弹幕速度、弹幕字体、弹幕颜色、弹幕的透明度、允许同时呈现的弹幕数量、弹幕弹出的时间间隔等。
需要说明的是,本实现方式1)中的上述两种可选方案可以相互结合,例如,当确定当前存在获得用户的视觉焦点的弹幕时(或者当确定当前存在获得用户的视觉焦点的弹幕,且该弹幕获得用户的视觉焦点的时间达到第一预定时间时),所述确定装置2在将该弹幕作为待调整的弹幕的同时,将位于该弹幕附近一定范围内的其他弹幕也作为待调整的弹幕,并且,所述确定装置2提取该弹幕中的关键词,并从当前呈现的所有弹幕中选择出包含所述关键词的其他弹幕,并将选择出的其他弹幕也确定为待调整的弹幕。
2)所述视频播放页面包括多个预定显示区域,所述确定装置2用于:根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域;对于所述至少一个预定显示区域中的每个预定显示区域,将该预定显示区域中的全部或部分弹幕确定为待调整的弹幕。
其中,可将所述视频播放页面中用于呈现弹幕的区域预先划分为多个预定显示区域。在一些实施例中,考虑到虚拟现实设备中播放的VR视频的每一帧画面都是全景图片,可基于用户的视线角度来将所述视频播放页面中用于呈现弹幕的区域预先划分为多个预定显示区域。在一些实施例中,可将用于呈现弹幕的区域平均划分为多个预定显示区域。
在一些实施例中,各个预定显示区域可对应相同的或不同的初始显示属性(例如,各个预定显示区域对应的弹幕初入方式均为“淡入淡出”、各个预定显示区域对应不同的字体颜色等),且可选地,每个预定显示区域还可预先设置有对应的可选调整策略。
所述确定装置2可采用多种实现方式来根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域。
在一些实施例中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:根据所述眼球追踪信息,从所述多个预定显示区域中选择出当前获得或失去所述用户的视觉焦点的预定显示区域。
作为一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点落在所述视频播放页面上的位置,当该位置落入所述多个预定显示区域中的一个预定显示区域A1时,所述确定装置2确定该预定显示区域A1获得所述用户的视觉焦点,则所述确定装置2从所述多个预定显示区域中选择出预定显示区域A1。
作为另一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点从预定显示区域A2转移至预定显示区域A3,也即预定显示区域A3获得所述用户当前的视觉焦点且预定显示区域A2失去所述用户的视觉焦点,则所述确定装置2从所述多个预定显示区域中选择出预定显示区域A2和A3。
作为再一个示例,所述确定装置2根据所述眼球追踪信息,确定用户当前的视觉焦点从预定显示区域A4转移至非用于显示弹幕的区域,也即预定显示区域A4失去所述用户的视觉焦点,则所述确定装置2从所述多个预定显示区域中选择出预定显示区域A4。
可选地,若所述确定装置2已确定当前存在获得用户的视觉焦点的弹幕,则可直接从所述多个预定显示区域中选择出该弹幕所位于的预定显示区域。
在一些实施例中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:根据所述眼球追踪信息,确定当前获得所述用户的视觉焦点的预定显示区域,之后,判断该预定显示区域获得视觉焦点的持续时间是否达到第二预定时间,并当所述持续时间达到第二预定时间时选择该预定显示区域。
在一些实施例中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:根据所述眼球追踪信息,获得所述用户的视觉焦点的移动轨迹;根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。
其中,所述确定装置2可采用多种方式根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。作为一个示例,所述确定装置2根据所述移动轨迹,从所述多个预定显示区域中选择用户的视觉焦点最近经过的两个预定显示区域。作为另一个示例,所述确定装置2根据所述移动轨迹,确定用户的视觉焦点最常停留的预定显示区域,并选择该预定显示区域。
在一些实施例中,上述根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:根据所述移动轨迹以及所述多个预定显示区域的位置信息,从所述多个预定显示区域中选择至少一个预定显示区域。其中,所述位置信息包括与所述多个预定显示区域的位置相关的任何信息,如各个预定显示区域在空间中的坐标信息、各个预定显示区域之间的相对位置关系等。
作为一个示例,所述确定装置2根据移动轨迹以及所述多个预定显示区域的位置信息,预测用户的视觉焦点可能将要进入的预定显示区域,并选择该预测的预定显示区域,基于此,可在用户的视觉焦点落入该预测的预定显示区域之前调整该预测的预定显示区域中的弹幕的显示属性,使得调整操作相对用户视觉感受来讲不会突兀,从而给用户带来更好的视觉体验。
对于所选择出的每个预定显示区域,所述确定装置2将该预定显示区域中的全部弹幕确定为待调整的弹幕。例如,对于所选择出的当前失去用户焦点的预定显示区域,所述确定装置2将该预定显示区域中的全部弹幕确定为待调整的弹幕;又例如,对于所选择出的当前获得用户的视觉焦点的预定显示区域,所述确定装置2将该预定显示区域中距离用户的视觉焦点较近的部分弹幕确定为待调整的弹幕。
3)所述确定装置2根据所述眼球追踪信息,判断用户的当前观看状态,当用户的当前观看状态为预定状态时,将所述视频播放页面上呈现的所有弹幕均作为待调整的弹幕。
在一些实施例中,设定预定状态包括疲劳状态和轻松状态(可选地,每种预定状态可对应不同的预定调整策略),所述确定装置2根据所述眼球追踪信息,获得用户的眨眼频率,若所述用户的眨眼频率大于等于第一频率阈值,则确定用户的当前观看状态为疲劳状态,若所述用户的眨眼频率小于等于第二频率阈值(所述第二频率阈值小于所述第一频率阈值),则确定用户的当前观看状态为轻松状态,若所述用户的眨眼频率小于所述第一频率阈值且大于所述第二频率阈值,则确定用户当前观看状态为正常状态(即非预定状态)。
需要说明的是,上述所述确定装置2的各种实现方式可以相互结合,例如,所述确定装置2可同时执行上述实现方式1)和2)中的操作来确定待调整的弹幕。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的实现方式,均应包含在本申请的范围内。
调整装置3用于确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
其中,所述调整策略信息用于指示所述至少一个弹幕对应的调整策略。其中,所述调整策略信息可用于指示一个或多个调整策略,一个调整策略可能仅对应一个弹幕,也可能对应多个弹幕。作为一个示例,待调整的弹幕包括M1、M2、M3,所述调整策略信息用于指示:与M1对应的调整策略为N1、与M2对应的调整策略为N2、与M3对应的调整策略为N3。作为另一个示例,待调整的弹幕包括M4、M5、M6,所述调整策略信息用于指示:与待调整的所有弹幕(M4、M5和M6)对应的调整策略为N3。
其中,所述调整操作包括任何用于调整弹幕的显示属性的操作,如调整弹幕的显示位置、调整弹幕的字体或颜色、调整弹幕的透明度或透明度变化方式、调整弹幕的出入方式、调整弹幕速度等。
其中,所述调整装置3可采用多种实现方式来确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
作为一种示例的实现方式,所述调整装置3进一步用于:对于所述至少一个弹幕中的每个弹幕,获得该弹幕的当前显示属性,并根据该弹幕的当前显示属性确定与该弹幕对应的调整策略信息,并根据与该弹幕对应的调整策略信息调整该弹幕的显示属性。
在一些实施例中,可针对弹幕的每种显示属性设置相应的调整规则,以使所述调整装置3能够基于所设置的各项调整规则,并结合弹幕的当前显示属性,来确定与该弹幕对应的调整策略信息。例如,预先设置对于出入方式为淡入淡出的弹幕采用如下调整规则:当弹幕获得用户的视觉焦点时,将该弹幕的透明度调整为0且保持不变,直至该弹幕失去用户的视觉焦点,而当弹幕失去用户的视觉焦点时按照淡入淡出方式对应的初始设置,使得该弹幕的透明度从0逐渐变为1(即使该弹幕逐渐淡出);则当待调整的一个弹幕为获得用户的视觉焦点的弹幕时,所述调整装置3结合上述调整规则确定该弹幕对应的调整策略信息,该调整策略信息指示该弹幕的透明度调整为0且保持不变,直至该弹幕失去用户的视觉焦点;之后,所述调整装置3根据该弹幕对应的调整策略信息将该弹幕的透明度调整为0且保持不变。
在一些实施例中,待调整的弹幕为多个且包括获得焦点的弹幕,其中,所述获得焦点的弹幕与其他待调整的弹幕对应不同的调整策略。更优选地,所述获得焦点的弹幕与其他待调整的弹幕对应相反的调整策略。
作为另一种示例的实现方式,所述调整装置3进一步用于:将待调整的多个弹幕划分为多个集合;确定与所述多个弹幕对应的调整策略信息,该调整策略信息用于指示所述多个集合中的每个集合对应的调整策略;对于所述多个集合中的每个集合,根据该集合对应的调整策略,调整该集合中包含的各个弹幕的显示属性。其中,包含在同一个集合中的各个弹幕对应相同的调整策略。
其中,所述调整装置3可采用多种方式将待调整的多个弹幕划分为多个集合。例如,所述调整装置3将距离较近的弹幕划分为一个集合;又例如,所述视频播放页面包括多个预定显示区域,所述调整装置3将位于同一个预定显示区域的弹幕划分为一个集合。
作为一个示例,所述调整装置3将待调整的多个弹幕划分为两个集合Set1和Set2,并与该多个弹幕对应的调整策略信息,该调整策略信息指示Set1对应的调整策略是将弹幕颜色变更为绿色、Set2对应的调整策略是将弹幕透明度从0逐渐变为1;之后,所述虚拟现实设备根据该调整策略信息将Set1中的每个弹幕的弹幕颜色从白色变更为绿色,并将Set2中的每个弹幕的透明度从0逐渐变为1。
在一些实施例中,待调整的多个弹幕被划分为两个集合,该两个集合对应相反的调整策略。
作为再一种示例的实现方式,当用户的当前观看状态为预定状态时,所述确定装置2将所述视频播放页面上呈现的所有弹幕均作为待调整的弹幕;则所述调整装置3确定与所有弹幕对应的调整策略信息,该调整策略信息用于指示所有弹幕均采用与该预定方式对应的调整策略,之后,所述调整装置3根据与该预定方式对应的调整策略调整所有弹幕的显示属性。需要说明的是,可选地,该实现方式中,所述调整装置3将根据与该预定方式对应的调整策略调整所述视频播放页面中后续呈现的弹幕的显示属性。
需要说明的是,上述举例仅为更好地说明本申请的技术方案,而非对本申请的限制,本领域技术人员应该理解,任何确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的实现方式,均应包含在本申请的范围内。
根据本实施例的方案,能够在虚拟现实设备中通过对佩戴虚拟现实设备的用户进行眼球追踪,来自动调整视频播放页面上呈现的全部或部分弹幕的显示属性,从而给用户带来更好的观看体验。
本申请还提供了一种虚拟现实设备,其中,所述虚拟现实设备包括:存储器,用于存储一个或多个程序;一个或多个处理器,与所述存储器相连,当所述一个或多个程序被所述一个或者多个处理器执行时,使得所述一个或多个处理器执行本申请所述的在虚拟现实设备中调整弹幕的显示属性的方法。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序可被处理器执行本申请所述的在虚拟现实设备中调整弹幕的显示属性的方法。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (20)
1.一种在虚拟现实设备中调整弹幕的显示属性的方法,其中,该方法包括:
当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息;
根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕;
确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性。
2.根据权利要求1所述的方法,其中,所述根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的步骤包括:
根据所述眼球追踪信息,判断当前是否存在获得或失去用户的视觉焦点的弹幕;
当确定存在获得或失去用户的视觉焦点的弹幕时,将所述获得或失去用户的视觉焦点的弹幕确定为待调整的弹幕。
3.根据权利要求2所述的方法,其中,所述根据所述眼球追踪信息,从所述视频播放页面上所呈现的所有弹幕中确定待调整的至少一个弹幕的步骤还包括:
当确定存在获得或失去用户的视觉焦点的弹幕时,将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
4.根据权利要求1所述的方法,其中,所述视频播放页面包括多个预定显示区域,所述根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的步骤包括:
根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域;
对于所述至少一个预定显示区域中的每个预定显示区域,将该预定显示区域中的全部或部分弹幕确定为待调整的弹幕。
5.根据权利要求4所述的方法,其中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的步骤包括:
根据所述眼球追踪信息,从所述多个预定显示区域中选择出当前获得或失去所述用户的视觉焦点的预定显示区域。
6.根据权利要求4所述的方法,其中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的步骤包括:
根据所述眼球追踪信息,获得所述用户的视觉焦点的移动轨迹;
根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。
7.根据权利要求6所述的方法,其中,所述根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域的步骤包括:
根据所述移动轨迹以及所述多个预定显示区域的位置信息,从所述多个预定显示区域中选择至少一个预定显示区域。
8.根据权利要求1至7中任一项所述的方法,其中,所述确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的步骤包括:
对于所述至少一个弹幕中的每个弹幕,获得该弹幕的当前显示属性,并根据该弹幕的当前显示属性确定与该弹幕对应的调整策略信息,并根据与该弹幕对应的调整策略信息调整该弹幕的显示属性。
9.根据权利要求1至7中任一项所述的方法,其中,待调整的弹幕为多个,所述确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的步骤包括:
将待调整的多个弹幕划分为多个集合;
确定与所述多个弹幕对应的调整策略信息,该调整策略信息用于指示所述多个集合中的每个集合对应的调整策略;
对于所述多个集合中的每个集合,根据该集合对应的调整策略,调整该集合中包含的各个弹幕的显示属性。
10.一种在虚拟现实设备中调整弹幕的显示属性的装置,其中,该装置包括:
用于当虚拟现实设备中当前呈现视频播放页面时,对佩戴所述虚拟现实设备的用户进行眼球追踪,获得所述用户对应的眼球追踪信息的装置;
用于根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的装置;
用于确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的装置。
11.根据权利要求10所述的装置,其中,所述用于根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的装置用于:
根据所述眼球追踪信息,判断当前是否存在获得或失去用户的视觉焦点的弹幕;
当确定存在获得或失去用户的视觉焦点的弹幕时,将所述获得或失去用户的视觉焦点的弹幕确定为待调整的弹幕。
12.根据权利要求11所述的装置,其中,所述用于根据所述眼球追踪信息,从所述视频播放页面上所呈现的所有弹幕中确定待调整的至少一个弹幕的装置还用于:
当确定存在获得或失去用户的视觉焦点的弹幕时,将位于所述获得或失去用户的视觉焦点的弹幕附近一定范围内的弹幕作为待调整的弹幕。
13.根据权利要求10所述的装置,其中,所述视频播放页面包括多个预定显示区域,所述用于根据所述眼球追踪信息,从所述视频播放页面上呈现的所有弹幕中确定待调整的至少一个弹幕的装置用于:
根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域;
对于所述至少一个预定显示区域中的每个预定显示区域,将该预定显示区域中的全部或部分弹幕确定为待调整的弹幕。
14.根据权利要求13所述的装置,其中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:
根据所述眼球追踪信息,从所述多个预定显示区域中选择出当前获得或失去所述用户的视觉焦点的预定显示区域。
15.根据权利要求13所述的装置,其中,所述根据所述眼球追踪信息,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:
根据所述眼球追踪信息,获得所述用户的视觉焦点的移动轨迹;
根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域。
16.根据权利要求15所述的装置,其中,所述根据所述移动轨迹,从所述多个预定显示区域中选择至少一个预定显示区域的操作包括:
根据所述移动轨迹以及所述多个预定显示区域的位置信息,从所述多个预定显示区域中选择至少一个预定显示区域。
17.根据权利要求10至16中任一项所述的装置,其中,所述用于确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的装置用于:
对于所述至少一个弹幕中的每个弹幕,获得该弹幕的当前显示属性,并根据该弹幕的当前显示属性确定与该弹幕对应的调整策略信息,并根据与该弹幕对应的调整策略信息调整该弹幕的显示属性。
18.根据权利要求10至16中任一项所述的装置,其中,待调整的弹幕为多个,所述用于确定与所述至少一个弹幕对应的调整策略信息,并根据所述调整策略信息调整所述至少一个弹幕的显示属性的装置用于:
将待调整的多个弹幕划分为多个集合;
确定与所述多个弹幕对应的调整策略信息,该调整策略信息用于指示所述多个集合中的每个集合对应的调整策略;
对于所述多个集合中的每个集合,根据该集合对应的调整策略,调整该集合中包含的各个弹幕的显示属性。
19.一种虚拟现实设备,其中,所述虚拟现实设备包括:
存储器,用于存储一个或多个程序;
一个或多个处理器,与所述存储器相连,
当所述一个或多个程序被所述一个或者多个处理器执行时,使得所述一个或多个处理器执行如权利要求1至9中任一项所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序可被处理器执行如权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910470986.1A CN110221695A (zh) | 2019-05-31 | 2019-05-31 | 在虚拟现实设备中调整弹幕的显示属性的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910470986.1A CN110221695A (zh) | 2019-05-31 | 2019-05-31 | 在虚拟现实设备中调整弹幕的显示属性的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110221695A true CN110221695A (zh) | 2019-09-10 |
Family
ID=67819272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910470986.1A Withdrawn CN110221695A (zh) | 2019-05-31 | 2019-05-31 | 在虚拟现实设备中调整弹幕的显示属性的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110221695A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111193938A (zh) * | 2020-01-14 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置和计算机可读存储介质 |
CN111225265A (zh) * | 2020-01-22 | 2020-06-02 | 北京理工大学 | 弹幕播放方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103885592A (zh) * | 2014-03-13 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 一种在屏幕上显示信息的方法及装置 |
CN105760101A (zh) * | 2016-02-02 | 2016-07-13 | 广东欧珀移动通信有限公司 | 视频播放的控制方法及电子设备 |
CN106156240A (zh) * | 2015-04-27 | 2016-11-23 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CN107728905A (zh) * | 2017-10-12 | 2018-02-23 | 咪咕动漫有限公司 | 一种弹幕显示方法、装置及存储介质 |
CN108804182A (zh) * | 2018-05-28 | 2018-11-13 | 优酷网络技术(北京)有限公司 | 一种弹幕区域的调节方法及客户端 |
-
2019
- 2019-05-31 CN CN201910470986.1A patent/CN110221695A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103885592A (zh) * | 2014-03-13 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 一种在屏幕上显示信息的方法及装置 |
CN106156240A (zh) * | 2015-04-27 | 2016-11-23 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CN105760101A (zh) * | 2016-02-02 | 2016-07-13 | 广东欧珀移动通信有限公司 | 视频播放的控制方法及电子设备 |
CN107728905A (zh) * | 2017-10-12 | 2018-02-23 | 咪咕动漫有限公司 | 一种弹幕显示方法、装置及存储介质 |
CN108804182A (zh) * | 2018-05-28 | 2018-11-13 | 优酷网络技术(北京)有限公司 | 一种弹幕区域的调节方法及客户端 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111193938A (zh) * | 2020-01-14 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置和计算机可读存储介质 |
CN111225265A (zh) * | 2020-01-22 | 2020-06-02 | 北京理工大学 | 弹幕播放方法及装置 |
CN111225265B (zh) * | 2020-01-22 | 2021-09-10 | 北京理工大学 | 弹幕播放方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11694353B2 (en) | Single depth tracked accommodation-vergence solutions | |
US10255714B2 (en) | System and method of gaze predictive rendering of a focal area of an animation | |
US10771760B2 (en) | Information processing device, control method of information processing device, and storage medium | |
CN104469179B (zh) | 一种将动态图片结合到手机视频中的方法 | |
US8899752B2 (en) | Visual fatigue level measuring device, visual fatigue level measuring method, visual fatigue level measuring system, and three-dimensional glasses | |
US10042421B2 (en) | System and method of latency-aware rendering of a focal area of an animation | |
US20180061084A1 (en) | System and method of bandwidth-sensitive rendering of a focal area of an animation | |
Mantiuk et al. | Gaze-dependent depth-of-field effect rendering in virtual environments | |
TWI669635B (zh) | 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 | |
CN105939481A (zh) | 一种交互式三维虚拟现实视频节目录播和直播方法 | |
CN105933726A (zh) | 虚拟现实终端及其视频分辨率的适应方法及装置 | |
US9286709B2 (en) | Variable frame rate rendering and projection | |
CN110221695A (zh) | 在虚拟现实设备中调整弹幕的显示属性的方法和装置 | |
JP2004220179A (ja) | 画像生成装置、画像生成方法、及び画像生成プログラム | |
CN108319362A (zh) | 一种全景信息显示方法、电子设备和计算机存储介质 | |
WO2022205789A1 (zh) | 基于虚拟现实的眼球追踪方法、系统 | |
CN108810513B (zh) | 全景视频的画面质量显示方法及装置 | |
US9628770B2 (en) | System and method for stereoscopic 3-D rendering | |
CN111225265B (zh) | 弹幕播放方法及装置 | |
Bickerstaff | Case study: the introduction of stereoscopic games on the Sony PlayStation 3 | |
CN110231867A (zh) | 在虚拟现实设备中调整弹幕的显示属性的方法和装置 | |
EP3800619A1 (en) | Variable rendering system and method | |
WO2018027015A1 (en) | Single depth tracked accommodation-vergence solutions | |
Morvan et al. | A perceptual approach to trimming unstructured lumigraphs | |
CN103179362B (zh) | 一种投影方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190910 |