CN118214912A - 扩展现实空间中弹幕显示方法、装置、设备、介质和程序 - Google Patents

扩展现实空间中弹幕显示方法、装置、设备、介质和程序 Download PDF

Info

Publication number
CN118214912A
CN118214912A CN202211624762.XA CN202211624762A CN118214912A CN 118214912 A CN118214912 A CN 118214912A CN 202211624762 A CN202211624762 A CN 202211624762A CN 118214912 A CN118214912 A CN 118214912A
Authority
CN
China
Prior art keywords
barrage
bullet screen
collision
virtual object
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211624762.XA
Other languages
English (en)
Inventor
汪圣杰
冀利悦
杨循
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202211624762.XA priority Critical patent/CN118214912A/zh
Publication of CN118214912A publication Critical patent/CN118214912A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例提供一种扩展现实空间中弹幕显示方法、装置、设备、介质和程序,所述方法包括:在扩展现实空间中显示多个弹幕,该多个弹幕在扩展现实空间中运动,响应于检测到第一弹幕与虚拟对象发生碰撞,控制第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。弹幕发生碰撞后,向目标方向弹开和/或执行预设特效,这些操作类似于现实场景中两个物体发生碰撞后的效果,更贴合XR设备的目的,能够带给用户更好的沉浸式体验,增加了弹幕互动的趣味性。

Description

扩展现实空间中弹幕显示方法、装置、设备、介质和程序
技术领域
本申请实施例涉及电子设备技术领域,尤其涉及一种扩展现实空间中弹幕显示方法、装置、设备、介质和程序。
背景技术
扩展现实(Extended Reality,XR),是指通过计算机将真实与虚拟相结合,打造一个可人机交互的虚拟环境,XR也是虚拟现实(Virtual Reality,VR)、增强现实(AugmentedReality,AR)和混合现实(Mixed Reality,MR)等多种技术的统称。通过将三者的视觉交互技术相融合,为体验者带来虚拟世界与现实世界之间无缝转换的“沉浸感”。
目前在XR设备中,在视频、游戏、直播等应用的用户界面(User Interface,UI)上显示有弹幕,弹幕在屏幕上移动显示。目前,XR设备中弹幕的显示与传统2D平面上弹幕显示类似,从屏幕的右端弹出,按照固定速度向左移动。
但是,已有的弹幕显示方法并不适用于扩展现实空间。
发明内容
本申请实施例提供一种扩展现实空间中弹幕显示方法、装置、设备、介质和程序,增加了弹幕互动的趣味性。
第一方面,本申请实施例提供一种扩展现实空间中弹幕显示方法,包括:
在扩展现实空间中显示多个弹幕,所述多个弹幕在所述扩展现实空间中运动;
响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
在一些实施例中,所述预设特效包括以下特效中的任意一个:弹幕瞬间炸开、弹幕膨胀后炸开、弹幕瞬间消失、弹幕膨胀后消失、弹幕漏气后消失、弹幕缩小后消失、弹幕先膨胀再缩小至碰撞前的大小、弹幕先缩小再膨胀至碰撞前的大小、弹幕的碰撞区域缩小再膨胀至碰撞前的大小。
在一些实施例中,所述向目标方向运动包括:向目标方向移动或者旋转之后向目标方向移动。
在一些实施例中,所述在扩展现实空间中显示多个弹幕,包括:
从所述扩展现实空间的弹幕生成区域中弹出弹幕。
在一些实施例中,还包括:
接收对所述弹幕生成区域的配置操作;
根据所述配置操作配置所述弹幕生成区域的以下参数中的一个或者多个:形状、大小和位置。
在一些实施例中,所述弹幕生成区域为球体、六面体或者两种任意形状的区域拼接形成的组合区域。
在一些实施例中,所述弹幕生成区域的位置跟随用户的位置移动。
在一些实施例中,所述弹幕生成区域的位置位于所述用户对应的虚拟对象的周围。
在一些实施例中,所述方法还包括:检测用户的朝向,根据用户的朝向控制所述扩展现实空间中的弹幕面向所述用户的脸部。
在一些实施例中,当所述虚拟对象为虚拟控制器时,所述方法还包括:响应于对所述虚拟控制器的移动操作,控制所述虚拟控制器向所述第一弹幕移动,并与所述第一弹幕发生碰撞,所述虚拟控制器的移动操作由虚拟现实设备的控制器控制。
在一些实施例中,所述目标方向为预设方向。
在一些实施例中,当所述虚拟对象为第二弹幕时,所述方法还包括:
响应于检测到第一弹幕与所述第二弹幕发生碰撞,控制所述第二弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
在一些实施例中,所述第一弹幕和所述第二弹幕的目标方向不同。
在一些实施例中,所述响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕向目标方向运动,包括:
所述响应于检测到第一弹幕与虚拟对象发生碰撞,确定所述发生碰撞的弹幕的目标方向以及碰撞后的速度,当所述虚拟对象为第二弹幕时,所述发生碰撞的弹幕包括所述第一弹幕和所述第二弹幕,当所述虚拟对象不是弹幕时,所述发生碰撞的弹幕包括所述第一弹幕;
控制所述发生碰撞的弹幕按照所述碰撞后的速度向所述目标方向移动。
在一些实施例中,所述确定所述发生碰撞的弹幕碰撞后的速度,包括:
根据所述发生碰撞的弹幕质量、摩擦力和碰撞前的速度中的一个或者多个,确定所述发生碰撞的弹幕碰撞后的速度。
在一些实施例中,所述确定所述发生碰撞的弹幕的目标方向,包括:
确定所述发生碰撞的弹幕碰撞前的方向为所述发生碰撞的弹幕的目标方向;
或者,确定所述发生碰撞的弹幕碰撞前的方向的反方向为所述发生碰撞的弹幕的目标方向。
在一些实施例中,所述确定所述发生碰撞的弹幕的目标方向,包括:
根据所述扩展现实空间中弹幕的分布情况,确定所述发生碰撞的弹幕的目标方向。
在一些实施例中,所述确定所述发生碰撞的弹幕的目标方向,包括:
当所述第一弹幕与所述虚拟对象发生碰撞时,确定背离用户脸部的方向为所述第一弹幕的目标方向;
当所述虚拟对象为所述第二弹幕时,确定所述第二弹幕的目标方向为与所述第一弹幕的目标方向呈预设角度的方向。
在一些实施例中,从所述扩展现实空间的弹幕生成区域中弹出弹幕,包括:
从所述弹幕生成区域弹出的弹幕的体积逐渐增大,增大到预设体积时保持所述预设体积在所述扩展现实空间中运动。
在一些实施例中,所述扩展现实空间中的弹幕从所述弹幕生成区域弹出至第一时长后正常消失;
所述弹幕正常消失时,所述弹幕的体积从所述预设体积逐渐减小到0。
在一些实施例中,所述方法还包括:
检测所述第一弹幕和所述虚拟控制器的位置;
根据所述第一弹幕的位置和所述虚拟对象的位置,确定所述第一弹幕和所述虚拟对象之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
在一些实施例中,所述方法还包括:
检测所述第一弹幕对应的第一碰撞体的位置以及所述虚拟对象对应的第二碰撞体的位置,所述第一碰撞体和第二碰撞体均为透明碰撞体,所述第一碰撞体覆盖所述第一弹幕的全部或者部分,所述第二碰撞体覆盖所述虚拟对象的全部或者部分;
根据所述第一碰撞体的位置和所述第二碰撞体的位置,确定所述第一碰撞体和所述第二碰撞体之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
在一些实施例中,所述第一碰撞体和所述第二碰撞体均为球形碰撞体或者六边体碰撞体。
另一方面,本申请实施例提供一种扩展现实空间中弹幕显示装置,所述装置包括:
显示模块,用于在扩展现实空间中显示多个弹幕,所述多个弹幕在所述扩展现实空间中运动;
控制模块,用于响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
另一方面,本申请实施例提供一种电子设备,所述电子设备包括:处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行如上述任一项所述的方法。
另一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序使得计算机执行如上述任一项所述的方法。
另一方面,本申请实施例提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的方法。
本申请实施例提供的扩展现实空间中弹幕显示方法、装置、设备、介质和程序,所述方法包括:在扩展现实空间中显示多个弹幕,该多个弹幕在扩展现实空间中运动,响应于检测到第一弹幕与虚拟对象发生碰撞,控制第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。弹幕发生碰撞后,向目标方向弹开和/或执行预设特效,这些操作类似于现实场景中两个物体发生碰撞后的效果,更贴合XR设备的目的,能够带给用户更好的沉浸式体验,增加了弹幕互动的趣味性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一提供的扩展现实空间中弹幕显示方法的流程图;
图2为虚拟现实空间中弹幕的一种显示示意图;
图3为两个弹幕碰撞的一种示意图;
图4为虚拟控制器与弹幕碰撞的一种示意图;
图5为本申请实施例二提供的扩展现实空间中弹幕显示方法的流程图;
图6为本申请实施例三提供的扩展现实空间中弹幕显示方法的流程图;
图7为本申请实施例四提供的扩展现实空间中弹幕显示装置的结构示意图;
图8为本申请实施例五提供的电子设备的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于理解本申请实施例,在描述本申请各个实施例之前,首先对本申请所有实施例中所涉及到的一些概念进行适当的解释说明,具体如下:
1)虚拟现实(Virtual Reality,简称为VR),创建和体验虚拟世界的技术,确定生成一种虚拟环境,是一种多源信息(本文中提到的虚拟现实至少包括视觉感知,此外还可以包括听觉感知、触觉感知、运动感知,甚至还包括味觉感知、嗅觉感知等),实现虚拟环境的融合的、交互式的三维动态视景和实体行为的仿真,使用户沉浸到模拟的虚拟现实环境中,实现在诸如地图、游戏、视频、教育、医疗、模拟、协同训练、销售、协助制造、维护和修复等多种虚拟环境的应用。
2)虚拟现实设备(VR设备),实现虚拟现实效果的终端,通常可以提供为眼镜、头盔式显示器(Head Mount Display,简称为HMD)、隐形眼镜的形态,以用于实现视觉感知和其他形式的感知,当然虚拟现实设备实现的形态不限于此,根据实际需要可以进一步小型化或大型化。
可选的,本申请实施例中记载的虚拟现实设备可以包括但不限于如下几个类型:
2.1)电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
2.2)移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
2.3)一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
3)混合现实(Mixed Reality,简称为MR):是指结合真实和虚拟世界创造了新的环境和可视化,物理实体和数字对象共存并能实时相互作用,用以模拟真实物体。混合了现实、增强现实、增强虚拟和虚拟现实技术。MR是一种虚拟现实(VR)加增强现实(AR)的合成品混合现实(MR),是虚拟现实(VR)技术的拓展延伸,通过在现实场景中呈现虚拟场景的方式,可以增加用户体验的真实感。MR领域涉及计算机视觉,计算机视觉是一门研究如何使机器“看”的科学,更进一步的,是指摄像机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观察或传送给仪器检测的图像。
也即是说,MR是将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景,一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子系统可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,系统可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
在介绍了本申请实施例涉及到的一些概念之后,下面结合附图对本申请实施例提供的一种扩展现实空间中弹幕显示方法进行具体说明,相同内容参照前述实施例的描述,不再重复说明。
图1是本申请实施例一提供的扩展现实空间中弹幕显示方法的流程图。本申请实施例可适用于人机交互场景,该弹幕显示方法可由弹幕显示装置来执行。该装置可由硬件和/或软件组成,并可集成于电子设备中。在本申请实施例中,电子设备可以是任意能够提供扩展现实空间的硬件设备。例如,该电子设备为VR设备、AR设备、MR设备等XR设备,本申请对此不做具体限制。考虑到不同类型的电子设备实现的原理是相同的,为了便于说明,将在下面实施例中以电子设备为VR设备为例进行详细说明。
如图1所示,该扩展现实空间中弹幕显示方法包括以下步骤:
S101、在扩展现实空间中显示多个弹幕,该多个弹幕在扩展空间中运动。
在扩展现实空间中用户可以打开目标应用,弹幕显示在目标应用的用户界面(User Interface,UI)上。该目标应用可以是应用软件,例如视频app、游戏app、直播app、音乐播放app等,该目标应用还可以是宿主应用程序中的小程序或应用模块,也可以是某个网页平台,本申请实施例不对此进行限制。
弹幕是指一种叠加显示在应用的UI上的评论性字幕,弹幕主要包括文本信息,该文本信息的字体颜色、字体大小均可灵活配置。可选地,弹幕还包括图像信息,如表情图像。可选地,弹幕还包括互动选项,用户可以对弹幕中的互动选项实施交互操作,来表达赞同或者不赞同该弹幕。
弹幕通常是移动的,在应用的UI上的固定区域或者整个区域内移动,例如,在视频场景中,弹幕可以从屏幕的左侧移动至右侧。可选的,也有部分弹幕是静止的,例如,弹幕静止显示在视频画面底部或者静止显示在视频画面顶部。
本实施例中,弹幕可以在扩展现实空间中弹幕显示区域内进行移动,该弹幕显示区域是指能够显示弹幕的区域,弹幕的移动范围控制在该弹幕显示区域内。该弹幕显示区域可以是UI的全部区域或者部分区域,具体可以根据应用的不同所有变化,或者根据用户的需求设置。
扩展现实空间为三维(3D)空间,因此,不同于2D空间中弹幕只能左右或者上下移动,弹幕在扩展现实空间中可以向任意方向移动。2D空间对应
的坐标系只有X轴和Y轴,3D空间对应的坐标系包括X轴、Y轴和Z轴,5在2D空间中弹幕可以认为只能在XY平面内移动,在3D空间内弹幕可以在
任意方向和任意平面内移动。例如、在3D空间内,弹幕可以上下、左右、前后(或称为远近)移动。
图2为虚拟现实空间中弹幕的一种显示示意图,参照图2,弹幕在弹幕
显示区域的任意位置开始后,可以按照预设轨迹移动,也可以随机移动,本0申请实施例不对此进行限制。例如,弹幕从弹幕显示区域的左边缘上的任一
位置开始,沿水平方向移动显示,从右边缘移出;或者,弹幕从弹幕显示区域的右边缘上的任一位置开始,沿水平方向移动显示,从左边缘移出。其中,各个弹幕在弹幕显示区域的开始位置可以相同,也可以不同。
S102、响应于检测到第一弹幕与虚拟对象发生碰撞,控制第一弹幕执行5以下操作中的至少一个:向目标方向运动,执行预设特效。
该虚拟对象可以是扩展现实空间中的其他弹幕、虚拟控制器、其他虚拟物体,其他虚拟物体例如包括:虚拟建筑、虚拟动物、虚拟人物、虚拟植物等。
弹幕在扩展现实空间中移动过程中可能发生碰撞。两个弹幕的碰撞可以0理解为两个弹幕的显示区域发生重叠,图3为两个弹幕碰撞的一种示意图,
如图3所示,虚线为第一弹幕的移动轨迹,实线为第二弹幕的移动轨迹,两个弹幕在所示位置发生碰撞。
为了增加应用的趣味性,本申请实施例中用户可以控制虚拟控制器与弹
幕发生碰撞,用户通过VR设备的控制器控制控制虚拟现实空间中的虚拟控5制器移动,VR设备的控制器可以是手柄、手持控制器等,虚拟控制器为VR
设备的控制器的模拟控制器。
本申请实施例中弹幕在扩展现实空间中可以向任何方向运动,所以,弹幕还可能与扩展现实空间中的建筑、动物、人物、植物等发生碰撞,例如,弹幕与房间的墙壁发生碰撞,或者弹幕与桌子发生碰撞。
0示例性的,VR设备可以通过如下两种方式检测第一弹幕是否与虚拟对象
发生碰撞。
方式一,检测第一弹幕和虚拟对象的位置,根据第一弹幕的位置和虚拟对象的位置,确定第一弹幕和虚拟对象之间的第一距离,当第一距离小于预设距离时,确定第一弹幕和虚拟对象发生碰撞。
弹幕在移动过程中,VR设备会检测各弹幕的位置和虚拟对象的位置。对于任意一个弹幕,检测该弹幕与虚拟现实空间中其他虚拟对象的距离。其中,弹幕的位置可以是弹幕的中心点的坐标,还可以是弹幕的一个或者多个边缘点的坐标。
方式二,检测第一弹幕对应的第一碰撞体的位置以及虚拟对象对应的第二碰撞体的位置,根据第一碰撞体的位置和第二碰撞体的位置,确定第一碰撞体和第二碰撞体之间的第一距离,当第一距离小于预设距离时,确定第一弹幕和虚拟对象发生碰撞。
该方式中,为第一弹幕和虚拟对象均设置了一个碰撞体,碰撞体可以认为是一个透明的物体,覆盖在第一弹幕和虚拟对象上,碰撞体用于辅助检测弹幕是否发生碰撞,碰撞体对于用户是不可见的。碰撞体能够覆盖第一弹幕和虚拟对象的全部或者部分。碰撞体的形状可以为球形碰撞体或者六边体碰撞体。
示例性的,第一碰撞体和第二碰撞体均为透明碰撞体,第一碰撞体覆盖第一弹幕的全部或者部分,第二碰撞体覆盖虚拟对象的全部或者部分。第一碰撞体和第二碰撞体均为球形碰撞体或者六边体碰撞体。
图4为虚拟控制器与弹幕碰撞的一种示意图,图4中虚拟控制器外围椭圆形所示区域为虚拟控制器的碰撞体,该碰撞体覆盖虚拟控制器的全部。可选的,碰撞体也可以覆盖虚拟控制器的部分,例如,碰撞体覆盖虚拟控制器的中心。该方式中,球形碰撞体的球心位置作为虚拟控制器的位置,用于计算虚拟控制器与弹幕的距离。弹幕的碰撞体的设置与虚拟控制器的碰撞体可以相同,这里不再重复说明。
在检测到第一弹幕与第二弹幕发生碰撞时,控制第一弹幕和第二弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。在检测到第一弹幕与虚拟控制器或者其他虚拟对象发生碰撞后,控制第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效,虚拟控制器或者其他虚拟对象不执行任何操作。
目标方向是发生碰撞的弹幕碰撞后的运动方向,该目标方向可以是预设的方向,也可以是实时确定的方向。当虚拟对象为第二弹幕时,发生碰撞的弹幕包括第一弹幕和第二弹幕,当虚拟对象不是弹幕时,发生碰撞的弹幕包括第一弹幕。
可选的,当第一弹幕和第二弹幕发生碰撞时,第一弹幕和第二弹幕的目标方向不同。示例性的,第一弹幕和第二弹幕的目标方向相反,即二者在碰撞之后,向相反的方向运动。或者,第一弹幕和第二弹幕的目标方向呈预设角度。
发生碰撞的弹幕向目标方向运动可以是向目标方向移动,还可以是旋转之后向目标方向移动,例如,第一弹幕和第二弹幕发生碰撞之后,第一弹幕和第二弹幕在原地旋转一圈后向目标方向移动。
弹幕发生碰撞后,向不同方向移动,产生了类似于弹幕碰撞后互相弹开的效果,类似于现实场景中两个物体发生碰撞后的效果,更贴合VR设备的初衷,能够带给用户更好的沉浸式体验。
示例性的,该预设特效包括以下特效中的任意一个:弹幕炸开、弹幕瞬间消失、弹幕膨胀后消失、弹幕漏气后消失、弹幕缩小后消失、弹幕先膨胀再缩小至碰撞前的大小、弹幕先缩小再膨胀至碰撞前的大小、弹幕的碰撞区域缩小再膨胀至碰撞前的大小。
弹幕瞬间炸开是指弹幕碰撞之后瞬间炸裂,弹幕膨胀后炸开是指弹幕碰撞之后体积开始增大,当增大到一定体积后弹幕炸裂。弹幕瞬间消失是指弹幕碰撞之后瞬间隐藏不见,弹幕膨胀后消失是指弹幕碰撞之后体积开始增大,当增大到一定体积后隐藏不见。
弹幕漏气后消失是指弹幕碰撞后体积开始缩小并伴随有漏气产生,在体积缩小至0或者预设体积后消失,类似于气球漏气的效果。弹幕缩小后消失与弹幕漏气类似,不同在于体积缩小过程中不会有漏气特效。
可选的,弹幕具有生长周期,弹幕的生长周期是指弹幕从扩展现实空间中出现,在没有发生由于上述两种碰撞导致弹幕炸裂或者消失的情况下,弹幕存活的时长,该生成周期为一个固定时长,例如为7秒(s),7秒之后弹幕消失,本申请实施例中将弹幕在正常周期结束时消失的行为称为正常消失,正常消失不包括由于碰撞导致弹幕炸裂或者消失的情况。
弹幕发生碰撞后,会执行上述预设特效,上述特效类似于现实场景中两个物体发生碰撞后的效果,更贴合VR设备的目的,能够带给用户更好的沉浸式体验。
在一种实现方式中,发生碰撞的弹幕可以先向目标方向运动再执行预设特效,例如,第一弹幕发生碰撞后先向目标方向移动一段距离或者预设时长后,再碰撞后炸开或者漏气后消失。
可选的,在弹幕消失之后,在预设时长或者满足预设条件时,该消失的弹幕会再次弹出,即显示在扩展现实空间中,这里的弹幕消失包括弹幕正常消失、碰撞导致的消失和碰撞导致的炸裂。
可选的,在本申请实施例中,弹幕始终面向用户的脸部,以使得用户能够清楚的看到弹幕内容。相应的,VR设备检测用户的朝向,根据用户的朝向控制扩展现实空间中的弹幕面向用户的脸部。
本实施例中,在扩展现实空间中显示多个弹幕,该多个弹幕在扩展现实空间中运动,响应于检测到第一弹幕与虚拟对象发生碰撞,控制第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。弹幕发生碰撞后,向目标方向弹开和/或执行预设特效,这些操作类似于现实场景中两个物体发生碰撞后的效果,更贴合XR设备的目的,能够带给用户更好的沉浸式体验,增加了弹幕互动的趣味性。
在实施例一的基础上,本申请实施例二提供一种扩展现实空间中弹幕显示方法,图5为本申请实施例二提供的扩展现实空间中弹幕显示方法的流程图,如图5所示,本实施例提供的方法包括以下步骤。
S201、从扩展现实空间的弹幕生成区域中弹出弹幕,并在扩展现实空间中运动。
扩展现实空间中的弹幕都从弹幕生成区域出生或者弹出,弹幕生成区域可以为任意形状,示例性的,弹幕生成区域为球体、六面体或者两种任意形状的区域拼接形成的组合区域。弹幕可以从弹幕生成区域的任意位置弹出,不同弹幕的弹出位置可能不同。弹幕生成区域的位置可以为固定位置,也可以为动态位置,动态位置是指弹幕生成区域的配置是可以变化的,例如,弹幕生成区域的位置随着用户位置移动,或者根据用户视角移动,或者随着时间变化。
弹幕生成区域的大小可以固定,也可以动态配置。
一种实现方式中,从弹幕生成区域弹出的弹幕的体积逐渐增大,增大到预设体积时保持预设体积在扩展现实空间中运动。
弹幕具有生长周期,该生长周期例如为第一时长,扩展现实空间中的弹幕从弹幕生成区域弹出至第一时长后正常消失。相应的,弹幕正常消失时,弹幕的体积从该预设体积逐渐减小到0。
另一种实现方式中,从弹幕生成区域弹出的弹幕的体积保持不变,直至第一时长后消失。
以第一时长为7秒为例,弹幕从弹幕生成区域弹出后,在第一秒内弹幕的体积从0增大到1,然后在2-6秒(共5秒)内保持体积不变,在第7秒弹幕的体积从1减小到0,可以理解,体积减小到0时弹幕消失。
其中,弹幕之间的碰撞或者弹幕与虚拟控制器的碰撞,可以发生在弹幕弹出后任意一个状态或者任意时间。
S202、接收对弹幕生成区域的配置操作,根据该配置操作配置弹幕生成区域的以下参数中的一个或者多个:形状、大小和位置。
在本申请实施例中弹幕生成区域可以由用户配置,用户可以根据需求对弹幕生成区域的形状、大小和位置中的一个或者多个进行配置。
示例性的,配置弹幕生成区域的位置位于用户对应的虚拟对象的周围,且跟随虚拟对象的位置移动。该虚拟对象例如是游戏中的虚拟角色,弹幕生成区域可以位于虚拟对象的腰部、头部或者脚部。
可选的,在其他实施例中,弹幕生成区域的形状、大小和位置是不可配置的。
需要说明的是,步骤S201和S202在执行时并没有先后顺序,用户根据自己的需求触发对弹幕生成区域的配置。
S203、响应于检测到第一弹幕与虚拟对象发生碰撞,控制第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
本步骤的实现方式参照实施例一的相关描述,这里不再赘述。
本实施例中,从扩展现实空间的弹幕生成区域中弹出弹幕,并在扩展现实空间中运动,接收对弹幕生成区域的配置操作,根据该配置操作配置弹幕生成区域的以下参数中的一个或者多个:形状、大小和位置。通过提供可配置的弹幕生成区域,满足不同用于需求,带给用户更好的体验。
在实施例一和实施例二的基础上,本申请实施例三提供一种扩展现实空间中弹幕显示方法,用于对发生碰撞的弹幕向目标方向移动的方法进行说明,确定发生碰撞的弹幕的初始速度和目标方向,图6为本申请实施例三提供的扩展现实空间中弹幕显示方法的流程图,如图6所示,本实施例提供的方法包括以下步骤。
S301、从扩展现实空间的弹幕生成区域中弹出弹幕,并在扩展现实空间中运动。
S302、响应于检测到第一弹幕与虚拟对象发生碰撞,确定发生碰撞的弹幕的目标方向以及碰撞后的速度。
当虚拟对象为第二弹幕时,发生碰撞的弹幕包括第一弹幕和第二弹幕,当虚拟对象不是弹幕时,发生碰撞的弹幕包括第一弹幕。
示例性的,VR设备可以采用如下几种方式确定发生碰撞的弹幕的初始速度。
第一种方式,发生碰撞的弹幕的初始速度采用预设的初始速度。
该方式中,发生碰撞的弹幕的初始速度是预先配置好的,是一个固定速度。
第二种方式,根据发生碰撞的弹幕质量、摩擦力和碰撞前的速度中的一个或者多个,确定发生碰撞的弹幕碰撞后的速度。
弹幕的质量、摩擦力和碰撞前的速度为弹幕的物理属性,在扩展现实空间中,弹幕可以为3D对象,相应的,弹幕的质量可以与弹幕的体积或者面积呈正相关,即弹幕的体积或者面积越大,弹幕的质量越大。
一种实现方式中,将发生碰撞的弹幕碰撞前的速度作为碰撞后的速度,或者,对发生碰撞的弹幕碰撞前的速度的乘以预设系数,得到碰撞后的速度,该预设系数例如为0.9、0.8或者1.2、1.3等。
当预设系数大于1时,碰撞后弹幕的速度大于碰撞前的速度。当预设系数小于1时,碰撞后的速度小于碰撞前的速度。
另一种实现方式中,假设弹幕与虚拟对象之间的碰撞为弹性碰撞,弹性碰撞过程中没有损耗能量,VR设备根据动量守恒和动能守恒的原理,确定发生碰撞的弹幕碰撞后的速度。
再一种实现方式中,为了使得弹幕之间的碰撞效果更加接近现实场景,假设弹幕与虚拟对象之间的碰撞为非弹性碰撞,弹幕碰撞的接触面是粗糙的,弹幕碰撞之后会产生摩擦力,该摩擦力为第一弹幕与虚拟对象碰撞过程中产生的摩擦力。在弹幕碰撞过程中,由于摩擦力的作用会产生能量损耗,VR设备可根据动量守恒和能量守恒的原理,确定弹幕碰撞后的速度。
示例性的,VR设备可以采用如下几种方式确定发生碰撞的弹幕的目标方向。
第一种方式,发生碰撞的弹幕的目标方向采用预设方向。
第二种方式,确定发生碰撞的弹幕碰撞前的方向为发生碰撞的弹幕的目标方向。
第三种方式,确定发生碰撞的弹幕碰撞前的方向的反方向为发生碰撞的弹幕的目标方向。
第四种方式,根据扩展现实空间中弹幕的分布情况,确定发生碰撞的弹幕的目标方向。
例如,将目标方向确定为扩展现实空间中弹幕较少的区域所在的方向,如果两个弹幕发生碰撞,那么两个弹幕的方向都可以朝向扩展现实空间中弹幕较少的区域所在的方向,二者之间的目标方向呈一定角度即可。
第五种方式,当第一弹幕与虚拟对象发生碰撞时,确定背离用户脸部的方向为第一弹幕的目标方向。当虚拟对象为第二弹幕时,确定第二弹幕的目标方向为与第一弹幕的目标方向呈预设角度的方向。
该方式中,虚拟对象与第一弹幕碰撞后,第一弹幕向背离用户脸部的方向移动,弹幕的运动方向更符合用户的预期,带给用户更好的体验。
S303、控制发生碰撞的弹幕按照碰撞后的速度向目标方向移动。
可选的,VR设备控制发生碰撞的弹幕向目标方向移动预设距离,在移动预设距离之后,发生碰撞的弹幕可以按照碰撞前的移动方式进行移动。
本实施例中,响应于检测到第一弹幕与虚拟对象发生碰撞,确定发生碰撞的弹幕的目标方向以及碰撞后的速度,实时确定的目标方向和碰撞后的速度考虑了弹幕的物理属性,使得弹幕的碰撞效果更加接近现实场景,提高了弹幕交互的趣味性。
为便于更好的实施本申请实施例的扩展现实空间中弹幕显示方法,本申请实施例还提供一种扩展现实空间中弹幕显示装置。图7为本申请实施例四提供的扩展现实空间中弹幕显示装置的结构示意图,如图7所示,该扩展现实空间中弹幕显示装置100可以包括:
显示模块11,用于在扩展现实空间中显示多个弹幕,所述多个弹幕在所述扩展现实空间中运动;
控制模块12,用于响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
在一些实施例中,所述预设特效包括以下特效中的任意一个:弹幕瞬间炸开、弹幕膨胀后炸开、弹幕瞬间消失、弹幕膨胀后消失、弹幕漏气后消失、弹幕缩小后消失、弹幕先膨胀再缩小至碰撞前的大小、弹幕先缩小再膨胀至碰撞前的大小、弹幕的碰撞区域缩小再膨胀至碰撞前的大小。
在一些实施例中,所述向目标方向运动包括:向目标方向移动或者旋转之后向目标方向移动。
在一些实施例中,所述显示模块11具体用于:从所述扩展现实空间的弹幕生成区域中弹出弹幕。
在一些实施例中,还包括配置模块,用于接收对所述弹幕生成区域的配置操作;根据所述配置操作配置所述弹幕生成区域的以下参数中的一个或者多个:形状、大小和位置。
在一些实施例中,所述弹幕生成区域为球体、六面体或者两种任意形状的区域拼接形成的组合区域。
在一些实施例中,所述弹幕生成区域的位置跟随用户的位置移动。
在一些实施例中,所述弹幕生成区域的位置位于所述用户对应的虚拟对象的周围。
在一些实施例中,所述控制模块12还用于:检测用户的朝向,根据用户的朝向控制所述扩展现实空间中的弹幕面向所述用户的脸部。
在一些实施例中,当所述虚拟对象为虚拟控制器时,所述控制模块12还用于:响应于对所述虚拟控制器的移动操作,控制所述虚拟控制器向所述第一弹幕移动,并与所述第一弹幕发生碰撞,所述虚拟控制器的移动操作由虚拟现实设备的控制器控制。
在一些实施例中,所述目标方向为预设方向。
在一些实施例中,当所述虚拟对象为第二弹幕时,所述方法还包括:
响应于检测到第一弹幕与所述第二弹幕发生碰撞,控制所述第二弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
在一些实施例中,所述第一弹幕和所述第二弹幕的目标方向不同。
在一些实施例中,所述控制模块12具体用于:
所述响应于检测到第一弹幕与虚拟对象发生碰撞,确定所述发生碰撞的弹幕的目标方向以及碰撞后的速度,当所述虚拟对象为第二弹幕时,所述发生碰撞的弹幕包括所述第一弹幕和所述第二弹幕,当所述虚拟对象不是弹幕时,所述发生碰撞的弹幕包括所述第一弹幕;
控制所述发生碰撞的弹幕按照所述碰撞后的速度向所述目标方向移动。
在一些实施例中,所述控制模块12具体用于:
根据所述发生碰撞的弹幕质量、摩擦力和碰撞前的速度中的一个或者多个,确定所述发生碰撞的弹幕碰撞后的速度。
在一些实施例中,所述控制模块12具体用于:
确定所述发生碰撞的弹幕碰撞前的方向为所述发生碰撞的弹幕的目标方向;
或者,确定所述发生碰撞的弹幕碰撞前的方向的反方向为所述发生碰撞的弹幕的目标方向。
在一些实施例中,所述控制模块12具体用于:
根据所述扩展现实空间中弹幕的分布情况,确定所述发生碰撞的弹幕的目标方向。
在一些实施例中,所述控制模块12具体用于:
当所述第一弹幕与所述虚拟对象发生碰撞时,确定背离用户脸部的方向为所述第一弹幕的目标方向;
当所述虚拟对象为所述第二弹幕时,确定所述第二弹幕的目标方向为与所述第一弹幕的目标方向呈预设角度的方向。
在一些实施例中,所述显示模块11具体用于:
从所述弹幕生成区域弹出的弹幕的体积逐渐增大,增大到预设体积时保持所述预设体积在所述扩展现实空间中运动。
在一些实施例中,所述扩展现实空间中的弹幕从所述弹幕生成区域弹出至第一时长后正常消失;
所述弹幕正常消失时,所述弹幕的体积从所述预设体积逐渐减小到0。
在一些实施例中,所述装置100还包括碰撞检测模块,用于:
检测所述第一弹幕和所述虚拟对象的位置;
根据所述第一弹幕的位置和所述虚拟对象的位置,确定所述第一弹幕和所述虚拟对象之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
在一些实施例中,所述装置100还包括碰撞检测模块,用于:
检测所述第一弹幕对应的第一碰撞体的位置以及所述虚拟对象对应的第二碰撞体的位置,所述第一碰撞体和所述第二碰撞体均为透明碰撞体,所述第一碰撞体覆盖所述第一弹幕的全部或者部分,所述第二碰撞体覆盖所述虚拟对象的全部或者部分;
根据所述第一碰撞体的位置和所述第二碰撞体的位置,确定所述第一碰撞体和所述第二碰撞体之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
在一些实施例中,所述第一碰撞体和所述第二碰撞体均为球形碰撞体或者六边体碰撞体。
应理解的是,装置实施例与方法实施例可以相互对应,类似的描述可以参照方法实施例。为避免重复,此处不再赘述。
上文中结合附图从功能模块的角度描述了本申请实施例的装置100。应理解,该功能模块可以通过硬件形式实现,也可以通过软件形式的指令实现,还可以通过硬件和软件模块组合实现。具体地,本申请实施例中的方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路和/或软件形式的指令完成,结合本申请实施例公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。可选地,软件模块可以位于随机存储器,闪存、只读存储器、可编程只读存储器、电可擦写可编程存储器、寄存器等本领域的成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法实施例中的步骤。
本申请实施例还提供一种电子设备。图8为本申请实施例五提供的电子设备的一种结构示意图,如图8所示,该电子设备200可以包括:
存储器21和处理器22,该存储器21用于存储计算机程序,并将该程序代码传输给该处理器22。换言之,该处理器22可以从存储器21中调用并运行计算机程序,以实现本申请实施例中的方法。
例如,该处理器22可用于根据该计算机程序中的指令执行上述方法实施例。
在本申请的一些实施例中,该处理器22可以包括但不限于:
通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等等。
在本申请的一些实施例中,该存储器21包括但不限于:
易失性存储器和/或非易失性存储器。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
在本申请的一些实施例中,该计算机程序可以被分割成一个或多个模块,该一个或者多个模块被存储在该存储器21中,并由该处理器22执行,以完成本申请提供的方法。该一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述该计算机程序在电子设备中的执行过程。
如图8所示,该电子设备还可包括:收发器23,该收发器23可连接至该处理器22或存储器21。
其中,处理器22可以控制该收发器23与其他设备进行通信,具体地,可以向其他设备发送信息或数据,或接收其他设备发送的信息或数据。收发器23可以包括发射机和接收机。收发器23还可以进一步包括天线,天线的数量可以为一个或多个。
可以理解,虽然图8中未示出,该电子设备200还可以包括摄像头模组、无线保真WIFI模块、定位模块、蓝牙模块、显示器、控制器等,在此不再赘述。
应当理解,该电子设备中的各个组件通过总线系统相连,其中,总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
本申请还提供了一种计算机存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得该计算机能够执行上述方法实施例的方法。或者说,本申请实施例还提供一种包含指令的计算机程序产品,该指令被计算机执行时使得计算机执行上述方法实施例的方法。
本申请还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得电子设备执行本申请实施例中的虚拟场景中用户位置的控制方法中的相应流程,为了简洁,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。例如,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
以上该,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以该权利要求的保护范围为准。

Claims (27)

1.一种扩展现实空间中弹幕显示方法,其特征在于,包括:
在扩展现实空间中显示多个弹幕,所述多个弹幕在所述扩展现实空间中运动;
响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
2.根据权利要求1所述的方法,其特征在于,所述预设特效包括以下特效中的任意一个:弹幕瞬间炸开、弹幕膨胀后炸开、弹幕瞬间消失、弹幕膨胀后消失、弹幕漏气后消失、弹幕缩小后消失、弹幕先膨胀再缩小至碰撞前的大小、弹幕先缩小再膨胀至碰撞前的大小、弹幕的碰撞区域缩小再膨胀至碰撞前的大小。
3.根据权利要求1所述的方法,其特征在于,所述向目标方向运动包括:向目标方向移动或者旋转之后向目标方向移动。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述在扩展现实空间中显示多个弹幕,包括:
从所述扩展现实空间的弹幕生成区域中弹出弹幕。
5.根据权利要求4所述的方法,其特征在于,还包括:
接收对所述弹幕生成区域的配置操作;
根据所述配置操作配置所述弹幕生成区域的以下参数中的一个或者多个:形状、大小和位置。
6.根据权利要求4所述的方法,其特征在于,所述弹幕生成区域为球体、六面体或者两种任意形状的区域拼接形成的组合区域。
7.根据权利要求4所述的方法,其特征在于,所述弹幕生成区域的位置跟随用户的位置移动。
8.根据权利要求7所述的方法,其特征在于,所述弹幕生成区域的位置位于所述用户对应的虚拟对象的周围。
9.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
检测用户的朝向;
根据用户的朝向控制所述扩展现实空间中的弹幕面向所述用户的脸部。
10.根据权利要求1-3任一项所述的方法,其特征在于,当所述虚拟对象为虚拟控制器时,所述方法还包括:
响应于对所述虚拟控制器的移动操作,控制所述虚拟控制器向所述第一弹幕移动,并与所述第一弹幕发生碰撞,所述虚拟控制器的移动操作由虚拟现实设备的控制器控制。
11.根据权利要求1-3任一项所述的方法,其特征在于,所述目标方向为预设方向。
12.根据权利要求1-3任一项所述的方法,其特征在于,当所述虚拟对象为第二弹幕时,所述方法还包括:
响应于检测到第一弹幕与所述第二弹幕发生碰撞,控制所述第二弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
13.根据权利要求12所述的方法,其特征在于,所述第一弹幕和所述第二弹幕的目标方向不同。
14.根据权利要求1-3任一项所述的方法,其特征在于,所述响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕向目标方向运动,包括:
所述响应于检测到第一弹幕与虚拟对象发生碰撞,确定发生碰撞的弹幕的目标方向以及碰撞后的速度,当所述虚拟对象为第二弹幕时,所述发生碰撞的弹幕包括所述第一弹幕和所述第二弹幕,当所述虚拟对象不是弹幕时,所述发生碰撞的弹幕包括所述第一弹幕;
控制所述发生碰撞的弹幕按照所述碰撞后的速度向所述目标方向移动。
15.根据权利要求14所述的方法,其特征在于,所述确定所述发生碰撞的弹幕碰撞后的速度,包括:
根据所述发生碰撞的弹幕质量、摩擦力和碰撞前的速度中的一个或者多个,确定所述发生碰撞的弹幕碰撞后的速度。
16.根据权利要求14所述的方法,其特征在于,所述确定所述发生碰撞的弹幕的目标方向,包括:
确定所述发生碰撞的弹幕碰撞前的方向为所述发生碰撞的弹幕的目标方向;
或者,确定所述发生碰撞的弹幕碰撞前的方向的反方向为所述发生碰撞的弹幕的目标方向。
17.根据权利要求14所述的方法,其特征在于,所述确定所述发生碰撞的弹幕的目标方向,包括:
根据所述扩展现实空间中弹幕的分布情况,确定所述发生碰撞的弹幕的目标方向。
18.根据权利要求14所述的方法,其特征在于,所述确定所述发生碰撞的弹幕的目标方向,包括:
当所述第一弹幕与所述虚拟对象发生碰撞时,确定背离用户脸部的方向为所述第一弹幕的目标方向;
当所述虚拟对象为所述第二弹幕时,确定所述第二弹幕的目标方向为与所述第一弹幕的目标方向呈预设角度的方向。
19.根据权利要求4所述的方法,其特征在于,从所述扩展现实空间的弹幕生成区域中弹出弹幕,包括:
从所述弹幕生成区域弹出的弹幕的体积逐渐增大,增大到预设体积时保持所述预设体积在所述扩展现实空间中运动。
20.根据权利要求19所述的方法,其特征在于,所述扩展现实空间中的弹幕从所述弹幕生成区域弹出至第一时长后正常消失;
所述弹幕正常消失时,所述弹幕的体积从所述预设体积逐渐减小到0。
21.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
检测所述第一弹幕和所述虚拟对象的位置;
根据所述第一弹幕的位置和所述虚拟对象的位置,确定所述第一弹幕和所述虚拟对象之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
22.根据权利要求1-3任一项所述的方法,其特征在于,还包括:
检测所述第一弹幕对应的第一碰撞体的位置以及所述虚拟对象对应的第二碰撞体的位置,所述第一碰撞体和所述第二碰撞体均为透明碰撞体,所述第一碰撞体覆盖所述第一弹幕的全部或者部分,所述第二碰撞体覆盖所述虚拟对象的全部或者部分;
根据所述第一碰撞体的位置和所述第二碰撞体的位置,确定所述第一碰撞体和所述第二碰撞体之间的第一距离,当所述第一距离小于预设距离时,确定所述第一弹幕和所述虚拟对象发生碰撞。
23.根据权利要求22所述的方法,其特征在于,所述第一碰撞体和所述第二碰撞体均为球形碰撞体或者六边体碰撞体。
24.一种扩展现实空间中弹幕显示装置,其特征在于,所述装置包括:
显示模块,用于在扩展现实空间中显示多个弹幕,所述多个弹幕在所述扩展现实空间中运动;
控制模块,用于响应于检测到第一弹幕与虚拟对象发生碰撞,控制所述第一弹幕执行以下操作中的至少一个:向目标方向运动,执行预设特效。
25.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,以执行权利要求1至23中任一项所述的方法。
26.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序使得计算机执行如权利要求1至23中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至23中任一项所述的方法。
CN202211624762.XA 2022-12-16 2022-12-16 扩展现实空间中弹幕显示方法、装置、设备、介质和程序 Pending CN118214912A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211624762.XA CN118214912A (zh) 2022-12-16 2022-12-16 扩展现实空间中弹幕显示方法、装置、设备、介质和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211624762.XA CN118214912A (zh) 2022-12-16 2022-12-16 扩展现实空间中弹幕显示方法、装置、设备、介质和程序

Publications (1)

Publication Number Publication Date
CN118214912A true CN118214912A (zh) 2024-06-18

Family

ID=91447669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211624762.XA Pending CN118214912A (zh) 2022-12-16 2022-12-16 扩展现实空间中弹幕显示方法、装置、设备、介质和程序

Country Status (1)

Country Link
CN (1) CN118214912A (zh)

Similar Documents

Publication Publication Date Title
US10282882B2 (en) Augmented reality simulation continuum
JP6754678B2 (ja) シミュレーションシステム及びプログラム
JP2023171885A (ja) 仮想オブジェクトの制御方法、及び関連装置
KR20170092632A (ko) 혼합 현실 시각화 및 방법
KR20170062533A (ko) 공유된 공간 증강 현실 경험을 생성하기 위한 프로젝터 구동 기술
KR20170081225A (ko) 가상 현실 환경에서 사용자를 안내하기 위한 감각 피드백 시스템 및 방법
JP2019175323A (ja) シミュレーションシステム及びプログラム
CN112090070A (zh) 虚拟道具的交互方法、装置及电子设备
JPH10247252A (ja) 衝突判定処理装置
US20170232338A1 (en) Systems and Methods for Providing Immersive Game Feedback Using Haptic Effects
WO2020218131A1 (ja) 画像生成装置および情報提示方法
JP2018045458A (ja) シミュレーションシステム及びプログラム
CN107291244A (zh) 一种vr参观系统
WO2010121945A2 (en) Method and system for interaction with unmodified 3d graphics applications
CN111569414B (zh) 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质
US10272337B2 (en) Non transitory computer-readable storage medium and method of controlling a computer
CN110868581A (zh) 一种图像的显示方法、装置及系统
CN113041616A (zh) 游戏中控制跳字显示的方法、装置、电子设备及存储介质
JP2018136944A (ja) シミュレーションシステム及びプログラム
CN118214912A (zh) 扩展现实空间中弹幕显示方法、装置、设备、介质和程序
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP2018171309A (ja) シミュレーションシステム及びプログラム
CN108922115B (zh) 一种信息处理方法及电子设备
Garcia et al. Modifying a game interface to take advantage of advanced I/O devices
WO2024193218A1 (zh) 虚拟对象的互动控制方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination