CN118068952A - 弹幕移动方法、装置和虚拟现实设备 - Google Patents

弹幕移动方法、装置和虚拟现实设备 Download PDF

Info

Publication number
CN118068952A
CN118068952A CN202211477481.6A CN202211477481A CN118068952A CN 118068952 A CN118068952 A CN 118068952A CN 202211477481 A CN202211477481 A CN 202211477481A CN 118068952 A CN118068952 A CN 118068952A
Authority
CN
China
Prior art keywords
bullet screen
screen information
barrage
augmented reality
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211477481.6A
Other languages
English (en)
Inventor
吴培培
冀利悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202211477481.6A priority Critical patent/CN118068952A/zh
Publication of CN118068952A publication Critical patent/CN118068952A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了弹幕移动方法、装置和虚拟现实设备。该方法的一具体实施方式包括:获取弹幕信息;控制弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,移动方向平行或垂直于虚拟现实设备的虚拟摄像头的朝向,或者移动方向平行或垂直于目标参照平面。该实施方式可以增加扩展现实空间的趣味性和丰富性。

Description

弹幕移动方法、装置和虚拟现实设备
技术领域
本公开实施例涉及计算机技术领域,具体涉及弹幕移动方法、装置和虚拟现实设备。
背景技术
随着视频技术的发展,弹幕文化在视频播放中随处可见,弹幕通常是指在网络上观看视频时弹出的评论性字幕。人们可以利用VR(Virtual Reality,虚拟现实)设备观看视频,同时通过发送弹幕的方式与其他用户进行讨论沟通,这种方式增加了多个用户之间的娱乐互动。
发明内容
提供该公开内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该公开内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供了一种弹幕移动方法,应用于虚拟现实设备,该方法包括:获取弹幕信息;控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
第二方面,本公开实施例提供了一种弹幕移动装置,设置于虚拟现实设备,该装置包括:获取单元,用于获取弹幕信息;控制单元,控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
第三方面,本公开实施例提供了一种虚拟现实设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的弹幕移动方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的弹幕移动方法的步骤。
本公开实施例提供的弹幕移动方法、装置和虚拟现实设备,通过获取弹幕信息;之后,控制上述弹幕信息按照平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向或者平行或垂直于目标参照平面的移动方向在预设的扩展现实空间中移动。通过这种方式可以增加扩展现实空间的趣味性和丰富性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是用户使用头戴式VR终端设备的一个示意图;
图2是根据本公开的弹幕移动方法的一个扩展现实空间的示意图;
图3是根据本公开的弹幕移动方法的一个实施例的流程图;
图4是根据本公开的弹幕移动方法中弹幕信息的初始点位的示意图;
图5是根据本公开的弹幕移动方法的一个应用场景的示意图;
图6是根据本公开的弹幕移动方法的又一个应用场景的示意图;
图7是根据本公开的弹幕移动装置的一个实施例的结构示意图;
图8是本公开的各个实施例可以应用于其中的示例性系统架构图;
图9是适于用来实现本公开实施例的虚拟现实设备的计算机系统的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
为了更好的理解本技术方案,现对一些相关信息进行说明。
如图1所示,用户可以通过例如头戴式VR眼镜等智能终端设备进入扩展现实空间,并在扩展现实空间中控制自己的虚拟角色(Avatar)与其他用户控制的虚拟角色进行社交互动、娱乐、学习、远程办公等。
其中,扩展现实空间可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
在一个实施例中,在扩展现实空间中,用户可以通过操作设备来实现相关的交互操作,该操作设备可以为手柄,例如用户通过对手柄的按键的操作来进行相关的操作控制。当然在另外的实施例中,也可以不使用控制器而使用手势或者语音或者多模态控制方式来对虚拟现实设备中的目标对象进行控制。
在本公开的一些实施例中,提出的控制方法可以用于虚拟现实设备,虚拟现实设备是实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head MountDisplay,HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据需要可以进一步小型化或大型化。
本公开实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
在虚拟现实设备能够呈现扩展现实空间中的虚拟现实图像,虚拟现实设备的底层往往是使用安卓、IOS等操作系统。
例如:扩展现实空间可以为XR(Extended Reality,扩展现实)设备针对任一用户选择的某一真实互动场景,模拟出的相应虚拟环境,以便在扩展现实空间内显示相应的互动信息。其中,扩展现实空间可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟场景,还可以是纯虚构的虚拟场景。
例如,用户选中某一类型的直播场景,来构建相应的虚拟直播环境,作为本申请中的扩展现实空间,使得各个观众进入到该扩展现实空间内来实现相应的直播互动。通常情况下,用户在佩戴好XR设备后,通过开启该XR设备,使得XR设备处于工作状态。进而,XR设备可以为用户模拟出用于显示各种媒体内容,以供用户多样化交互的虚拟环境,使得用户进入到所提供的由真实场景和虚拟场景融合后而形成的扩展现实空间内。
在一些可实现方式中,针对任一设定有多机位的真实场景,通常会按照真实场景内在各个机位下布设的真实摄像头,在扩展现实空间内也布设出与多个真实摄像头一一匹配的多个虚拟摄像头,使得扩展现实空间内能够具备相应的多个机位,以确保扩展现实空间和真实场景内的机位一致。进而,在任一用户通过佩戴XR设备而进入到扩展现实空间内后,可以通过从多个机位中预先选中任一机位,或者多机位切换,即可在扩展现实空间内全方位显示出任一机位下的互动场景信息。
在本申请中,扩展现实空间内的多个机位存在多种类型,例如可以包括但不限于近景机位、远景机位、后台机位、二楼机位等。
需要说明的是,扩展现实空间内配置的多机位是按照所需互动的真实场景内设定的各个机位来设定的。因此,针对不同真实场景所模拟的扩展现实空间,其内配置的多机位数量也会不同。
而且,考虑到任一真实场景内布设的多机位通常是为了全方位采集真实场景内主舞台在不同视角下的场景画面,以在扩展现实空间内进行全方位显示。所以,在扩展现实空间内可以预先设定一个虚拟主舞台,以在虚拟主舞台上呈现用户所处机位下的互动场景信息,其中,该互动场景信息可以通过在真实场景内相应机位下布设的真实摄像头所采集的媒体内容流来确定。
以某一演唱会直播场景为例,如图2所示,在扩展现实空间内可以模拟出对应的舞台、布景、观看区的多个机位等。扩展现实空间内的各个用户在不同机位下观看虚拟主舞台上所呈现的互动场景信息时,各个用户会针对所呈现的各类互动场景信息,而在扩展现实空间内发送相应的弹幕消息,以实现扩展现实空间内的用户互动。
请参考图3,示出了根据本公开的弹幕移动方法的一个实施例的流程300。该弹幕移动方法,应用于虚拟现实设备,例如,VR一体机。该方法包括以下步骤:
步骤301,获取弹幕信息。
在本实施例中,弹幕移动方法的执行主体可以获取弹幕信息。弹幕通常是指在网络上观看视频时弹出的评论性字幕。在这里,上述执行主体可以获取直播视频的实时弹幕信息。上述弹幕信息通常包括:弹幕发表者的标识和弹幕内容(包括但不限于:文字、图片、表情等)。
步骤302,控制弹幕信息按照预设的移动方向在预设的扩展现实空间中移动。
在本实施例中,上述执行主体可以控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动。上述扩展现实空间可以为预先设置的用于呈现弹幕信息的空间。作为示例,若当前直播视频是演唱会直播视频,则上述扩展现实空间可以是舞台前面的预设空间,该空间的宽度、高度和深度可以根据舞台的大小进行设置。
在这里,上述移动方向可以平行于上述VR设备的虚拟摄像头的朝向。即上述执行主体可以控制上述弹幕信息按照平行于VR设备的虚拟摄像头的朝向进行移动,用户看到的始终是弹幕信息的正视图。
需要说明的是,由于弹幕信息一直是按照平行于VR设备的摄像头的朝向移动的,若用户移动位置,改变了用户的视角,用户看到的也是弹幕信息的正视图。
在这里,上述移动方向还可以垂直于上述VR设备的虚拟摄像头的朝向。即上述执行主体可以控制上述弹幕信息按照垂直于VR设备的虚拟摄像头的朝向进行移动。
在这里,上述移动方向也可以垂直于目标参照平面。在这里,上述目标参照平面可以是视频中呈现的大屏幕、舞台、球场等具有标志性的物体的平面。若视频中呈现的是大屏幕,则此时上述执行主体可以控制上述弹幕信息按照垂直于大屏幕所在的平面的方向进行移动。
需要说明的是,由于弹幕信息是按照垂直于目标参照平面的方向进行移动的,若用户移动位置,改变了用户的视角,弹幕信息的呈现角度也会随着用户视角的改变而改变。由于弹幕信息是按照垂直于目标参照平面的方向进行移动的,因此,弹幕信息所在的平面与上述目标参照平面平行,用户观看大屏幕的视角(视线与大屏幕的垂直方向所成的角度)与用户观看弹幕信息的视角(视线与弹幕信息的垂直方向所成的角度)是相同的。
在这里,上述移动方向也可以平行于目标参照平面。在这里,上述目标参照平面可以是视频中呈现的大屏幕、舞台、球场等具有标志性的物体的平面。若视频中呈现的是大屏幕,则此时上述执行主体可以控制上述弹幕信息按照平行于大屏幕所在的平面的方向进行移动。
本公开的上述实施例提供的方法通过获取弹幕信息;之后,控制上述弹幕信息按照平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向或者平行或垂直于目标参照平面的移动方向在预设的扩展现实空间中移动。通过这种方式可以增加扩展现实空间的趣味性和丰富性,提升扩展现实空间中的互动氛围感和沉浸感。
在一些可选的实现方式中,上述执行主体可以通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:上述执行主体可以控制上述弹幕信息在上述移动方向上按照设定的路径在上述扩展现实空间中进行移动。
作为一种示例,若上述弹幕信息按照平行于虚拟现实设备的虚拟摄像头的朝向进行移动或者按照垂直于目标参照平面进行移动,此时,可以按照距离使用VR设备的用户由近到远这一路径进行移动,也可以按照距离使用VR设备的用户由远到近这一路径进行移动。
作为另一种示例,若上述弹幕信息按照垂直于虚拟现实设备的虚拟摄像头的朝向进行移动或者按照平行于目标参照平面进行移动,此时,可以按照由上到下这一路径进行移动,也可以按照由下到上这一路径进行移动。
在一些可选的实现方式中,上述弹幕信息在上述扩展现实空间中的Z轴位置通常不同于当前呈现的其他弹幕信息在上述扩展现实空间中的Z轴位置。即任意两个弹幕信息不会相互重叠。
在一些可选的实现方式中,上述执行主体可以根据上述弹幕信息在上述扩展现实空间中的移动位置,调整上述弹幕信息呈现时的显示效果。上述显示效果可以包括透明度。作为示例,上述执行主体可以在弹幕信息开始移动时将弹幕信息的透明度设置成完全透明,之后降低弹幕信息的透明度直至弹幕信息移动到目标位置(例如,移动到上述扩展现实空间的中间位置),在上述目标位置处弹幕信息的透明度为完全不透明,而后,增加弹幕信息的透明度直至弹幕信息到达移动终点,在移动终点处弹幕信息的透明度为完全透明。
在一些可选的实现方式中,上述弹幕信息在扩展现实空间中出现的初始点位可以为上述扩展现实空间中的任一位置。例如,可以为上述扩展现实空间中的中间位置,也可以为上述扩展现实空间中的边缘位置。
在一些可选的实现方式中,上述弹幕信息的初始点位可以与目标用户的头部位置相关,上述目标用户可以为使用上述虚拟现实设备的用户。作为示例,上述弹幕信息的初始点位与上述目标用户的头部位置之间的距离通常不超过预设的第一距离阈值。
在一些可选的实现方式中,上述弹幕信息的初始点位可以与上述目标用户的头部位置在Z轴上满足预设第一距离关系,在Y轴上满足预设第二距离关系。在Z轴上的距离可以理解为水平距离,上述第一距离关系可以为上述弹幕信息的初始点位与上述目标用户的头部位置之间的水平距离在预设的第一水平距离阈值与预设的第二水平距离阈值之间。在Y轴上的距离可以理解为垂直距离,上述第二距离关系可以为上述弹幕信息的初始点位与上述目标用户的头部位置之间的垂直距离小于预设的垂直距离阈值。在这里,Z轴方向代表距离用户的深度距离,Y轴方向代表距离用户的垂直距离。通过这种方式对弹幕信息的初始点位进行设置可以使得用户更加聚焦弹幕内容。
如图4所示,图4是根据本实施例的弹幕移动方法中弹幕信息的初始点位的一个示意图。在图4的示意图中,以坐标点O代表目标用户的头部位置,弹幕信息的初始点位与目标用户的头部位置O在Z轴上的距离在Z1和Z2之间,从而确定出弹幕信息的初始点位在Z轴上的坐标值位于z1至z2之间,弹幕信息的初始点位与目标用户的头部位置O在Y轴上的距离小于预设的距离阈值Y0,从而确定出弹幕信息的初始点位在Y轴上的坐标值位于y1至y2之间,由此确定出上述弹幕信息的初始点位位于图标401所指示的空间区域中。
需要说明的是,在这里,未对弹幕信息的初始点位与上述目标用户的头部位置在X轴上的距离关系进行设置,因此,图标401指示的空间区域是示例性的。在实际应用中,可以根据具体需求,对弹幕信息的初始点位与上述目标用户的头部位置在X轴上所需满足的距离关系进行设置,例如,设置弹幕信息的初始点位与上述目标用户的头部位置在X轴上的距离不超过X0。
在一些可选的实现方式中,上述弹幕信息的初始点位与上述扩展现实空间中的虚拟对象的位置相关。在这里,上述弹幕信息的初始点位通常设置于上述扩展现实空间中的虚拟对象的周围,例如,上述弹幕信息的初始点位与上述扩展现实空间中的虚拟对象之间的距离通常小于预设的第二距离阈值。上述虚拟对象可以表征上述目标用户,也可以表征其他用户。
在一些可选的实现方式中,在获取到弹幕信息之后,上述执行主体可以生成弹幕框,并在上述弹幕框上承载上述弹幕信息。
在一些可选的实现方式中,上述弹幕框可以是2D(二维)或者3D(三维)的。2D的弹幕框只有水平的X轴向与垂直的Y轴向。3D的弹幕框对应三个坐标,即长、宽、高。3D的弹幕框是立体的,是由X、Y、Z三个轴组成的空间。
在一些可选的实现方式中,在获取弹幕信息之后,上述执行主体可以确定上述弹幕信息所属的类型,例如,可以按照预设规则进行分类,如弹幕的热度、弹幕的发送者等角度进行划分,本公开实施例对此不做限制。之后,可以基于上述类型来确定上述弹幕框的显示状态。上述显示状态可以包括但不限于以下至少一项:尺寸、颜色和形状。可以预先设置弹幕信息的类型与弹幕框的显示状态之间的对应关系的对应关系表,之后从该对应关系表中查询上述弹幕信息的类型对应的弹幕框的显示状态。作为示例,可以对上述弹幕信息的内容进行分析,确定上述弹幕信息属于热点弹幕还是普通弹幕。若是热点弹幕,则可以将上述弹幕框的尺寸设置成第一尺寸;若是普通弹幕,则可以将上述弹幕框的尺寸设置成第二尺寸,其中,第一尺寸通常大于第二尺寸,从而使得热点弹幕的弹幕框的尺寸大于普通弹幕的弹幕框的尺寸。还可以将热点弹幕的弹幕框的颜色设置成红色,将普通弹幕的弹幕框的颜色设置成白色。通过这种方式可以使得某一类型(例如,热点弹幕)的弹幕框更加醒目。
在一些可选的实现方式中,上述执行主体可以通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:上述执行主体可以控制上述弹幕信息在扩展现实空间中的预定空间范围内按照预设的移动方向进行移动。在这里,上述预定空间范围可以根据扩展现实空间中的虚拟场景进行设置。若上述虚拟场景为演唱会场景,则上述预定空间范围可以为演唱会舞台前面的预设长、宽、高的空间范围。若上述虚拟场景为电影院场景,则上述预定空间范围可以为播放电影的大屏幕前面的预设长、宽、高的空间范围。
在一些可选的实现方式中,上述执行主体可以基于扩展现实空间的互动场位置控制在上述扩展现实空间中呈现的弹幕信息的数量。在这里,若扩展现实空间的互动场为演唱会舞台、大屏幕等用户视线关注区域的前方空间,则上述执行主体可以控制在上述扩展现实空间的目标区域(例如,Y轴数值小于预设数值的区域)呈现的弹幕信息的数量小于预设数量阈值(例如,10)。通过这种方式可以降低对用户观看内容的遮挡,提高用户观看效果。
继续参见图5,图5是根据本实施例的弹幕移动方法的应用场景的一个示意图。在图5的应用场景中,当前扩展现实空间中包括五条弹幕信息,这五条弹幕信息的移动方向平行于用户的VR设备的虚拟摄像头的朝向,用户看到的是弹幕信息的正视图。在图5中,按照距离用户的距离由近到远的顺序,弹幕信息分别为:图标505所指示的弹幕、图标501所指示的弹幕、图标503所指示的弹幕、图标504所指示的弹幕和图标502所指示的弹幕。
进一步参见图6,图6是根据本实施例的弹幕移动方法的又一个应用场景的示意图。在图6的应用场景中,用户通过移动位置,改变了与大屏幕601之间的视角,由于弹幕信息的移动方向垂直于大屏幕,因此,用户与弹幕信息之间的视角也发生了改变。
继续参考图7,作为对上述各图所示方法的实现,本申请提供了一种弹幕移动装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体通常应用于虚拟现实设备中。
如图7所示,本实施例的弹幕移动装置700包括:获取单元701和控制单元702。其中,获取单元701用于获取弹幕信息;控制单元702用于控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
在本实施例中,弹幕移动装置700的获取单元701和控制单元702的具体处理可以参考图3对应实施例中的步骤301和步骤302。
在一些可选的实现方式中,上述控制单元702进一步用于通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:控制上述弹幕信息在上述移动方向上按照设定的路径在上述扩展现实空间中进行移动。
在一些可选的实现方式中,上述弹幕信息在上述扩展现实空间中的Z轴位置不同于当前呈现的其他弹幕信息在上述扩展现实空间中的Z轴位置。
在一些可选的实现方式中,上述弹幕移动装置700可以包括:调整单元(图中未示出)。上述调整单元可以用于根据上述弹幕信息在上述扩展现实空间中的移动位置,调整上述弹幕信息呈现时的显示效果。
在一些可选的实现方式中,上述弹幕信息在扩展现实空间中出现的初始点位为上述扩展现实空间中的任一位置。
在一些可选的实现方式中,上述弹幕信息的初始点位与目标用户的头部位置相关,其中,上述目标用户为使用上述虚拟现实设备的用户。
在一些可选的实现方式中,上述弹幕信息的初始点位与上述目标用户的头部位置在Z轴上满足预设第一距离关系,在Y轴上满足预设第二距离关系。
在一些可选的实现方式中,上述弹幕信息的初始点位与上述扩展现实空间中的虚拟对象的位置相关。
在一些可选的实现方式中,上述弹幕移动装置700可以包括:生成单元(图中未示出)。上述生成单元可以用于生成弹幕框,在上述弹幕框上承载上述弹幕信息。
在一些可选的实现方式中,上述弹幕框是2D或者3D的。
在一些可选的实现方式中,上述弹幕移动装置700可以包括:第一确定单元(图中未示出)和第二确定单元(图中未示出)。上述第一确定单元可以确定上述弹幕信息所属的类型;上述第二确定单元可以基于上述类型来确定上述弹幕框的显示状态。
在一些可选的实现方式中,上述控制单元702进一步用于通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:控制上述弹幕信息在扩展现实空间中的预定空间范围内按照预设的移动方向进行移动。
在一些可选的实现方式中,上述弹幕移动装置700可以包括:数量控制单元(图中未示出)。上述数量控制单元可以用于基于扩展现实空间的互动场位置控制在上述扩展现实空间中呈现的弹幕信息的数量。
图8示出了可以应用本公开的弹幕移动方法的实施例的示例性系统架构800。
如图8所示,系统架构800可以包括终端设备801,网络802和服务器803。网络802用以在终端设备801和服务器803之间提供通信链路的介质。网络802可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备801通过网络802与服务器803交互,以发送或接收消息等,例如,终端设备801可以从服务器803获取弹幕信息。终端设备801上可以安装有各种通讯客户端应用,例如视频播放类应用、视频直播类应用、即时通讯软件等。
终端设备801可以从服务器803获取弹幕信息;之后,可以控制上述弹幕信息按照平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向或者平行或垂直于目标参照平面的移动方向在预设的扩展现实空间中移动。
终端设备801可以是硬件,也可以是软件。当终端设备801为硬件时,可以是具有显示屏、摄像头并且支持信息交互的虚拟现实设备。当终端设备801为软件时,可以安装在上述虚拟现实设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器803可以是提供各种服务的服务器。例如,可以是向终端设备801提供弹幕信息的后台服务器。
需要说明的是,服务器803可以是硬件,也可以是软件。当服务器803为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器803为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本公开实施例所提供的弹幕移动方法通常由终端设备801执行,则弹幕移动装置通常设置于终端设备801中。
应该理解,图8中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图9,其示出了适于用来实现本公开的实施例的虚拟现实设备(例如图8中的终端设备)900的结构示意图。图9示出的虚拟现实设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图9所示,虚拟现实设备900包括中央处理器(CPU)901、存储器902、输入单元903和输出单元904,其中,中央处理器901、存储器902、输入单元903以及输出单元904通过总线906彼此相连。在此,根据本公开的实施例的方法可以被实现为计算机程序,并且存储在存储器902中。虚拟现实设备900中的处理装置901通过调用存储器902中存储的上述计算机程序,来具体实现本公开的实施例的方法中限定的视图显示功能。
在一些实现方式中,输入单元903可以是摄像头等可用于获取用户的视角和位置的设备,输出单元904可以是显示屏等可用于显示视图的设备。由此,处理装置901在调用上述计算机程序执行视图显示功能时,可以控制输入单元903获取用户的位置信息和视角信息,以及控制输出单元904对视频和弹幕信息进行显示。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述虚拟现实设备中所包含的;也可以是单独存在,而未装配入该虚拟现实设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该虚拟现实设备执行时,使得该虚拟现实设备:获取弹幕信息;控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
根据本公开的一个或多个实施例,提供了一种弹幕移动方法,应用于虚拟现实设备,该方法包括:获取弹幕信息;控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
根据本公开的一个或多个实施例,上述控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,包括:控制上述弹幕信息在上述移动方向上按照设定的路径在上述扩展现实空间中进行移动。
根据本公开的一个或多个实施例,上述弹幕信息在上述扩展现实空间中的Z轴位置不同于当前呈现的其他弹幕信息在上述扩展现实空间中的Z轴位置。
根据本公开的一个或多个实施例,该方法还包括:根据上述弹幕信息在上述扩展现实空间中的移动位置,调整上述弹幕信息呈现时的显示效果。
根据本公开的一个或多个实施例,上述弹幕信息在扩展现实空间中出现的初始点位为上述扩展现实空间中的任一位置。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与目标用户的头部位置相关,其中,上述目标用户为使用上述虚拟现实设备的用户。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与上述目标用户的头部位置在Z轴上满足预设第一距离关系,在Y轴上满足预设第二距离关系。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与上述扩展现实空间中的虚拟对象的位置相关。
根据本公开的一个或多个实施例,在上述获取弹幕信息之后,该方法还包括:生成弹幕框,在上述弹幕框上承载上述弹幕信息。
根据本公开的一个或多个实施例,上述弹幕框是2D或者3D的。
根据本公开的一个或多个实施例,在上述获取弹幕信息之后,该方法还包括:确定上述弹幕信息所属的类型;基于上述类型来确定上述弹幕框的显示状态。
根据本公开的一个或多个实施例,上述控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,包括:控制上述弹幕信息在扩展现实空间中的预定空间范围内按照预设的移动方向进行移动。
根据本公开的一个或多个实施例,该方法还包括:基于扩展现实空间的互动场位置控制在上述扩展现实空间中呈现的弹幕信息的数量。
根据本公开的一个或多个实施例,提供了一种弹幕移动装置,设置于虚拟现实设备,该装置包括:获取单元,用于获取弹幕信息;控制单元,用于控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,上述移动方向平行或垂直于上述虚拟现实设备的虚拟摄像头的朝向,或者上述移动方向平行或垂直于目标参照平面。
根据本公开的一个或多个实施例,上述控制单元进一步用于通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:控制上述弹幕信息在上述移动方向上按照设定的路径在上述扩展现实空间中进行移动。
根据本公开的一个或多个实施例,上述弹幕信息在上述扩展现实空间中的Z轴位置不同于当前呈现的其他弹幕信息在上述扩展现实空间中的Z轴位置。
根据本公开的一个或多个实施例,该装置包括:调整单元,用于根据上述弹幕信息在上述扩展现实空间中的移动位置,调整上述弹幕信息呈现时的显示效果。
根据本公开的一个或多个实施例,上述弹幕信息在扩展现实空间中出现的初始点位为上述扩展现实空间中的任一位置。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与目标用户的头部位置相关,其中,上述目标用户为使用上述虚拟现实设备的用户。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与上述目标用户的头部位置在Z轴上满足预设第一距离关系,在Y轴上满足预设第二距离关系。
根据本公开的一个或多个实施例,上述弹幕信息的初始点位与上述扩展现实空间中的虚拟对象的位置相关。
根据本公开的一个或多个实施例,该装置还包括:生成单元,用于生成弹幕框,在上述弹幕框上承载上述弹幕信息。
根据本公开的一个或多个实施例,上述弹幕框是2D或者3D的。
根据本公开的一个或多个实施例,该装置还包括:第一确定单元,用于确定上述弹幕信息所属的类型;第二确定单元,用于基于上述类型来确定上述弹幕框的显示状态。
根据本公开的一个或多个实施例,上述控制单元进一步用于通过如下方式控制上述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动:控制上述弹幕信息在扩展现实空间中的预定空间范围内按照预设的移动方向进行移动。
根据本公开的一个或多个实施例,该装置还包括:数量控制单元,用于基于扩展现实空间的互动场位置控制在上述扩展现实空间中呈现的弹幕信息的数量。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元和控制单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取弹幕信息的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种弹幕移动方法,应用于虚拟现实设备,其特征在于,所述方法包括:
获取弹幕信息;
控制所述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,所述移动方向平行或垂直于所述虚拟现实设备的虚拟摄像头的朝向,或者所述移动方向平行或垂直于目标参照平面。
2.根据权利要求1所述的方法,其特征在于,所述控制所述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,包括:
控制所述弹幕信息在所述移动方向上按照设定的路径在所述扩展现实空间中进行移动。
3.根据权利要求1所述的方法,其特征在于,所述弹幕信息在所述扩展现实空间中的Z轴位置不同于当前呈现的其他弹幕信息在所述扩展现实空间中的Z轴位置。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述弹幕信息在所述扩展现实空间中的移动位置,调整所述弹幕信息呈现时的显示效果。
5.根据权利要求1所述的方法,其特征在于,所述弹幕信息在所述扩展现实空间中出现的初始点位为所述扩展现实空间中的任一位置。
6.根据权利要求5所述的方法,其特征在于,所述弹幕信息的初始点位与目标用户的头部位置相关,其中,所述目标用户为使用所述虚拟现实设备的用户。
7.根据权利要求6所述的方法,其特征在于,所述弹幕信息的初始点位与所述目标用户的头部位置在Z轴上满足预设第一距离关系,在Y轴上满足预设第二距离关系。
8.根据权利要求5所述的方法,其特征在于,所述弹幕信息的初始点位与所述扩展现实空间中的虚拟对象的位置相关。
9.根据权利要求1至8任一项权利要求所述的方法,其特征在于,在所述获取弹幕信息之后,所述方法还包括:
生成弹幕框,在所述弹幕框上承载所述弹幕信息。
10.根据权利要求9所述的方法,其特征在于,所述弹幕框是2D或者3D的。
11.根据权利要求9所述的方法,其特征在于,在所述获取弹幕信息之后,所述方法还包括:
确定所述弹幕信息所属的类型;
基于所述类型来确定所述弹幕框的显示状态。
12.根据权利要求1所述的方法,其特征在于,所述控制所述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,包括:
控制所述弹幕信息在所述扩展现实空间中的预定空间范围内按照预设的移动方向进行移动。
13.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述扩展现实空间的互动场位置控制在所述扩展现实空间中呈现的弹幕信息的数量。
14.一种弹幕移动装置,设置于虚拟现实设备,其特征在于,所述装置包括:
获取单元,用于获取弹幕信息;
控制单元,用于控制所述弹幕信息按照预设的移动方向在预设的扩展现实空间中移动,其中,所述移动方向平行或垂直于所述虚拟现实设备的虚拟摄像头的朝向,或者所述移动方向平行或垂直于目标参照平面。
15.一种虚拟现实设备,其特征在于,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-13中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-13中任一所述的方法。
CN202211477481.6A 2022-11-23 2022-11-23 弹幕移动方法、装置和虚拟现实设备 Pending CN118068952A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211477481.6A CN118068952A (zh) 2022-11-23 2022-11-23 弹幕移动方法、装置和虚拟现实设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211477481.6A CN118068952A (zh) 2022-11-23 2022-11-23 弹幕移动方法、装置和虚拟现实设备

Publications (1)

Publication Number Publication Date
CN118068952A true CN118068952A (zh) 2024-05-24

Family

ID=91094253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211477481.6A Pending CN118068952A (zh) 2022-11-23 2022-11-23 弹幕移动方法、装置和虚拟现实设备

Country Status (1)

Country Link
CN (1) CN118068952A (zh)

Similar Documents

Publication Publication Date Title
US9485493B2 (en) Method and system for displaying multi-viewpoint images and non-transitory computer readable storage medium thereof
KR20150090183A (ko) 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법
US20090251460A1 (en) Systems and methods for incorporating reflection of a user and surrounding environment into a graphical user interface
US20170195664A1 (en) Three-dimensional viewing angle selecting method and apparatus
CN101631257A (zh) 一种实现二维视频码流立体播放的方法及装置
CN110710203B (zh) 用于生成和渲染沉浸式视频内容的方法、系统和介质
CN111095348A (zh) 基于摄像头的透明显示器
CN108401163B (zh) 一种实现vr直播的方法、装置及ott业务系统
US20130120371A1 (en) Interactive Communication Virtual Space
CN112153472A (zh) 一种画面特效的生成方法及装置、存储介质及电子设备
US10482671B2 (en) System and method of providing a virtual environment
CN118068952A (zh) 弹幕移动方法、装置和虚拟现实设备
CN109727315B (zh) 一对多集群渲染方法、装置、设备及存储介质
WO2023231666A1 (zh) 信息交互方法、装置、电子设备和存储介质
US20240153159A1 (en) Method, apparatus, electronic device and storage medium for controlling based on extended reality
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
WO2024016880A1 (zh) 信息交互方法、装置、电子设备和存储介质
WO2024012106A1 (zh) 信息交互方法、装置、电子设备和存储介质
JP7419529B2 (ja) 遠隔端末のための没入型テレカンファレンス及びテレプレゼンスのインタラクティブオーバーレイ処理
KR102601179B1 (ko) Xr 컨텐츠를 생성하기 위한 장치, 방법 및 시스템
CN117519456A (zh) 信息交互方法、装置、电子设备和存储介质
CN117519457A (zh) 信息交互方法、装置、电子设备和存储介质
CN117201856A (zh) 信息交互方法、装置、电子设备和存储介质
CN117376591A (zh) 基于虚拟现实的场景切换处理方法、装置、设备及介质
JP2022552853A (ja) メディアリソースの再生およびテキストレンダリング方法、装置、機器および記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination