CN114697755A - 虚拟场景信息交互方法、装置、设备以及存储介质 - Google Patents

虚拟场景信息交互方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN114697755A
CN114697755A CN202210352747.8A CN202210352747A CN114697755A CN 114697755 A CN114697755 A CN 114697755A CN 202210352747 A CN202210352747 A CN 202210352747A CN 114697755 A CN114697755 A CN 114697755A
Authority
CN
China
Prior art keywords
data
virtual scene
virtual
target
participating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210352747.8A
Other languages
English (en)
Inventor
舒志强
李明路
孙健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210352747.8A priority Critical patent/CN114697755A/zh
Publication of CN114697755A publication Critical patent/CN114697755A/zh
Priority to KR1020220177568A priority patent/KR20230002211A/ko
Priority to JP2023055900A priority patent/JP2023082119A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Abstract

本公开提供了一种虚拟场景信息交互方法、装置、设备、存储介质以及程序产品,涉及人工智能领域,尤其涉及计算机视觉、语音识别、虚拟现实技术领域,可以用在云计算、元宇宙和媒体云场景下。具体实现方案为:响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据;根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象;以及响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。

Description

虚拟场景信息交互方法、装置、设备以及存储介质
技术领域
本公开涉及人工智能领域,尤其涉及计算机视觉、语音识别、虚拟现实技术领域,可以应用在云计算、元宇宙和媒体云场景下,具体涉及一种虚拟场景信息交互方法、装置、设备、存储介质以及程序产品。
背景技术
随着计算机技术和互联网技术的发展,很多智能产品提供通过虚拟环境进行数据交互的功能,以提升用户的使用体验。
发明内容
本公开提供了一种虚拟场景信息交互方法、装置、设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种虚拟场景信息交互方法,包括:响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据;根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象;以及响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。
根据本公开的另一方面,提供了一种虚拟场景信息交互装置,包括:基础数据获取模块、目标参与对象确定模块以及目标内容播放模块。基础数据获取模块,用于响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据;目标参与对象确定模块,用于根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象;目标内容播放模块,用于响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器和与所述至少一个处理器通信连接的存储器。其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开实施例的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开实施例的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开实施例的方法。
本公开的虚拟场景信息交互方法,至少可以实现以下技术效果之一。
1)通过在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象,可以将虚拟形象作为第一对象在虚拟环境中的存在形式,提升用户对于虚拟环境的参与感受,使得用户可以沉浸式地通过虚拟环境进行数据交互。
2)通过在虚拟场景中播放目标内容,可以满足在虚拟场景播放目标内容进行数据交互的需求,拓展基于虚拟场景进行数据交互的应用覆盖范围,提升用户基于虚拟场景的临场感和沉浸感,具有更高的信息交互效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1A示意性示出了根据本公开一实施例的虚拟场景信息交互方法和装置的系统架构图;
图1B示意性示出了根据本公开另一实施例的虚拟场景信息交互方法和装置的系统架构图;
图2示意性示出了根据本公开实施例的虚拟场景信息交互方法的流程图;
图3示意性示出了根据本公开实施例的虚拟场景信息交互方法的示意图;
图4示意性示出了根据本公开一实施例的在虚拟场景中播放目标内容的示意图;
图5示意性示出了根据本公开另一实施例的虚拟场景信息交互方法的示意图;
图6示意性示出了根据本公开一实施例的虚拟场景信息交互方法应用于虚拟会议场景对应的系统架构的示意图;
图7示意性示出了根据本公开实施例的虚拟场景信息交互装置的框图;以及
图8示意性示出了可以实现本公开实施例的虚拟场景信息交互方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
随着计算机技术和互联网技术的发展,很多智能产品提供通过虚拟环境进行数据交互的功能,以提升用户的使用体验。
可以理解,基于虚拟环境进行数据交互可以突破物理空间的限制,适用于用户被物理空间限制,仍然具有数据交互需求的情况。
例如,可以通过虚拟会议应用进行数据交互,在一些实施例中,虚拟会议应用支持语音交互和视频交互。
图1A示意性示出了根据本公开一实施例的虚拟场景信息交互方法和装置的系统架构,图1B示意性示出了根据本公开另一实施例的虚拟场景信息交互方法和装置的系统架构。需要注意的是,图1A和图1B所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1A所示,根据该实施例的系统架构100A可以包括客户端101A、102A、103A,网络104A和服务器105A。网络104A用以在客户端101A、102A、103A和服务器105A之间提供通信链路的介质。网络104A可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用客户端101A、102A、103A通过网络104A与服务器105A交互,以接收或发送消息等。客户端101A、102A、103A上可以安装有各种通讯客户端应用,例如基于虚拟环境进行数据交互的应用、购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
客户端101A、102A、103A可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。本公开实施例的客户端101A、102A、103A例如可以运行应用程序。
服务器105A可以是提供各种服务的服务器,例如对用户利用客户端101A、102A、103A所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给客户端。另外,服务器105A还可以是云服务器,即服务器105A具有云计算功能。
需要说明的是,本公开实施例所提供的虚拟场景信息交互方法可以由服务器105A执行。相应地,本公开实施例所提供的虚拟场景信息交互装置可以设置于服务器105A中。本公开实施例所提供的虚拟场景信息交互方法也可以由不同于服务器105A且能够与客户端101A、102A、103A和/或服务器105A通信的服务器或服务器集群执行。相应地,本公开实施例所提供的虚拟场景信息交互装置也可以设置于不同于服务器105A且能够与客户端101A、102A、103A和/或服务器105A通信的服务器或服务器集群中。
在一种示例中,服务器105A可以通过网络104A获取来自客户端101A、102A、103A的虚拟场景接入请求指令、目标内容播放指令、位置调整指令、形象调整操作指令中的至少一个。
如图1B所示,本公开另一实施例的系统架构100B可以包括客户端101B、102B、103B,网络104B和信令服务器105B、第一媒体服务器106B、第二媒体服务器107B以及用户管理服务器108B。
与系统架构100A不同地,本公开实施例的系统架构100B的信令服务器105B用于在各个客户端之间协调通信,第一媒体服务器106B用于处理各个客户端的用户的媒体流,第二媒体服务器107B可以存储和处理用于播放的媒体文件,用户管理服务器108B用于管理各个客户端的用户数据。
应该理解,图1A和图1B中的客户端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端、网络和服务器。
应注意,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
本公开实施例提供了一种虚拟场景信息交互方法,下面结合图1A和图1B的系统架构,参考图2~图6来描述根据本公开示例性实施方式的虚拟场景信息交互方法。本公开实施例的虚拟场景信息交互方法例如可以由图1A所示的服务器105A来执行。
图2示意性示出了根据本公开一实施例的虚拟场景信息交互方法的流程图。
如图2所示,本公开实施例的虚拟场景信息交互方法200例如可以包括操作S210~操作S230。
在操作S210,响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据。
虚拟场景可以理解为某一场景的虚拟现实。虚拟现实即利用计算机生成模拟虚拟场景,可以带给用户场景沉浸感。
基础数据可以包括接入虚拟场景的所需数据以及与虚拟场景的功能相关的其他数据。例如,接入虚拟场景的所需数据可以包括虚拟场景的标识数据和第一对象的标识数据。虚拟场景具有显示虚拟形象的功能时,基础数据可以包括虚拟形象数据,虚拟形象数据可以用于在虚拟环境中创建虚拟形象。
在操作S220,根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象。
目标参与对象可以理解为参与虚拟环境的、以虚拟形象映射的第一对象。
在操作S230,响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。
存在以下一种情况:基于虚拟场景进行数据交互时,还涉及到某些目标内容。例如,虚拟场景为虚拟会议的场景,某一虚拟会议的目的是向参与该虚拟会议的参与对象展示某一产品,具体的展示方式是播放该产品的宣传视频,这里的宣传视频即为目标内容。
本公开实施例的虚拟场景信息交互方法,通过在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象,可以将虚拟形象作为第一对象在虚拟环境中的存在形式,提升用户对于虚拟环境的参与感受,使得用户可以沉浸式地通过虚拟环境进行数据交互。本公开实施例的虚拟场景信息交互方法,还通过在虚拟场景中播放目标内容,可以满足在虚拟场景播放目标内容进行数据交互的需求,拓展基于虚拟场景进行数据交互的应用覆盖范围,提升用户基于虚拟场景的临场感和沉浸感,具有更高的信息交互效率。
图3示意性示出了根据本公开另一实施例的虚拟场景信息交互方法300的示意图。
如图3所示,根据本公开实施例的虚拟场景信息交互方法300可以包括操作S310~操作S330。
在操作S310,响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据。例如,可以在客户端C3生成第一对象的虚拟场景接入请求指令。
在操作S320,根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象。
在操作S330,响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。例如,可以在客户端C3生成第一对象的目标内容播放指令。
图3示意性示出了操作S310~操作S330的执行主体为服务器端S3的示例。
图4示意性示出了根据本公开又一实施例的虚拟场景信息交互方法中在虚拟场景中播放目标内容的示意图。
根据本公开又一实施例,可以使用以下实施例来实现虚拟场景信息交互方法中响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容的具体示例。虚拟场景可以是根据虚拟场景数据生成的。虚拟场景数据可以包括虚拟播放设备数据。
如图4所示,在操作S431,响应于来自第一对象的目标内容播放指令,获取目标内容数据。例如,可以在客户端C4生成第一对象的目标内容播放指令。
目标内容数据可以位于服务器端S42,服务器端S42例如可以包括上述的第二媒体服务器107B。
如图4所示,响应于来自第一对象的目标内容播放指令,在获取目标内容之前,可以在服务器端S42确定目标内容数据。
在操作S432,通过虚拟播放设备播放目标内容。
虚拟播放设备根据虚拟播放设备数据生成,目标内容根据目标内容数据生成。
示例性地,虚拟播放设备可以包括以下中的至少一个:视频播放设备、语音播放设备、文本播放设备。例如,虚拟播放设备可以是虚拟投影设备、虚拟显示屏幕等。
根据本公开实施例的虚拟场景信息交互方法,通过获取目标内容数据,并利用虚拟播放设备播放目标内容,可以模拟实际场景中利用播放设备播放目标内容的情形,满足在虚拟场景播放目标内容进行数据交互的需求,提升用户基于虚拟场景的临场感和沉浸感,提高信息交互效率。例如,目标内容可以包括某个产品的发布会直播视频,可以通过接入虚拟会议,并在虚拟会议中利用虚拟显示屏幕播放发布会直播视频,虚拟会议的参与对象可以集中、同步观看发布会直播视频,例如可以针对发布会直播视频进行探讨,提高会议效率。
示例性地,根据本公开又一实施例的虚拟场景信息交互方法还可以包括以下操作。虚拟场景可以包括至少一个参与对象,基础数据还可以包括位置数据。
根据位置数据,确定参与对象在虚拟场景中的位置坐标。
根据虚拟场景数据和参与对象在虚拟场景中的位置坐标,确定虚拟场景地图数据。
向参与对象发送虚拟场景地图数据。
根据本公开实施例的虚拟场景信息交互方法,通过参与对象在虚拟场景中的位置坐标,可以确定虚拟场景地图数据,使得参与对象可以在虚拟环境中定位自身位置,还可以通过虚拟场景地图数据确定其他参与对象的位置,提升使用体验。
图5示意性示出了根据本公开一实施例的数据交互示意图。
图5示意性示出了六个参与对象,包括参与对象User_A、参与对象User_B、参与对象User_C、参与对象User_D、参与对象User_E以及参与对象User_F。其中,参与对象User_A的位置坐标Pos(Xa,Ya,Za)、参与对象User_B的位置坐标Pos(Xb,Yb,Zb)、参与对象User_C的位置坐标Pos(Xc,Yc,Zc)、参与对象User_D的位置坐标Pos(Xd,Yd,Zd)、参与对象User_E的位置坐标Pos(Xe,Ye,Ze)、参与对象User_F的位置坐标Pos(Xf,Yf,Zf)。
图5还示意性示出了虚拟播放设备B、会议桌D和虚拟场景地图Ma。
在图5的示例中,可以调用直播流媒体服务的接口,通过虚拟播放设备B播放直播视频,此时,目标内容即为直播视频。直播流媒体服务例如可以由上述的第二媒体服务器107B提供。
在图5的示例中,例如,以参与对象User_F为目标参与对象为例,目标参与对象可以通过实时流媒体服务发布语音流,还可以通过实时流媒体服务订阅语音交互对象的语音流。实时流媒体服务例如可以由上述的第一媒体服务器106B提供。
在图5的示例中,可以通过实时通信信令服务支持参与对象之间的通信。实时通信信息服务例如可以由上述的信令服务器105B提供。
在图5的示例中,可以通过用户管理服务管理用户的相关数据。用户管理服务例如可以由上述的用户管理服务器108B提供。
示例性地,根据本公开又一实施例的虚拟场景信息交互方法还可以包括以下操作。
响应于针对第一对象的位置调整指令,根据第一对象的位置调整数据,调整目标参与对象的位置坐标,得到目标参与对象的调整后的位置坐标。
示例性地,可以在客户端的显示屏上设置位置调整触发窗口,例如可以通过点击触发生成针对第一对象的位置调整指令。
位置调整数据可以包括调整方向和基于调整方向的调整单元数量。
根据位置更新频率和调整后的位置坐标中的至少一个,更新虚拟场景地图数据。
位置更新频率可以理解为预先设置的、更新位置坐标的频率,位置更新频率可以根据虚拟场景对于灵敏度的要求确定。例如,虚拟场景对于灵敏度的要求高时,位置更新频率可以是0.2秒/次;虚拟场景对于灵敏度的要求低时,位置更新频率可以是1秒/次。
根据调整后的位置坐标,更新虚拟场景地图数据可以理解为:目标参与对象的位置调整后,将虚拟场景地图数据中的目标参与对象的位置坐标调整为调整后的位置坐标。
根据本公开实施例的虚拟场景信息交互方法,支持目标参与对象调整位置坐标,还通过更新虚拟场景地图数据,使得虚拟场景地图数据可以适应目标参与对象的位置调整。目标参与对象可以准确确定自身位置以及与其他参与对象的相对位置,提升使用体验。
示例性地,根据本公开又一实施例,参与对象可以包括目标参与对象和至少一个参考参与对象。虚拟场景信息交互方法还可以包括以下操作。
根据语音交互范围阈值和参与对象的位置坐标,确定目标参与对象的语音交互参与对象。
示例性地,针对目标参与对象,参与对象的位置坐标在语音交互范围阈值内时,可以确定该参与对象为目标参与对象的一个语音交互参与对象。
向目标参与对象订阅语音交互参与对象的语音流。
目标参与对象订阅语音交互参与对象的语音流后,目标参与对象可以接收语音交互参与对象发出的语音流。
可以理解,实际场景中,如果参与实际场景的多个参与对象之间的距离在某一范围阈值,参与对象互相可以接收到对方的声音。
本公开实施例的数据交互方方法,通过语音交互范围阈值和参与对象的位置坐标,可以确定目标参与对象的语音交互参与对象,并向目标参与对象订阅语音交互参与对象的语音流,可以模拟实际场景中的音效,提升用户基于虚拟场景的沉浸感。
示例性地,根据本公开实施例的虚拟场景信息交互方法还可以包括以下操作。
响应于语音交互参与对象的位置坐标超出语音交互范围阈值,确定无效语音交互参与对象。
向目标参与对象取消订阅无效语音交互参与对象的语音流。
语音交互参与对象是位置坐标在语音交互范围阈值内的参与对象,例如参与对象调整位置坐标,并且调整后的位置坐标超出语音交互范围阈值,此时,语音交互参与对象不再满足目标参与对象订阅其语音流的条件,该语音交互参与对象变成无效语音交互参与对象。由此,可以向目标参与对象取消订阅无效语音交互对象的语音流。目标参与对象取消订阅无效语音交互参与对象的语音流后,目标参与对象不再接收无效语音交互参与对象发出的语音流。
本公开实施例的数据交互方方法,通过语音交互范围阈值和语音交互参与对象的位置坐标,可以动态确定目标参与对象的无效语音交互参与对象,并适应性取消订阅其语音流,模拟实际场景中的音效,提升用户基于虚拟场景的沉浸感。
示例性地,根据本公开实施例的虚拟场景信息交互方法还可以包括以下操作。
根据目标参与对象的位置坐标和语音交互参与对象的位置坐标,确定语音交互参与对象相对于目标参与对象的相对位置数据。
根据相对位置数据,对语音交互参与对象的语音流进行混音处理和双声道处理中的至少一个,得到语音交互参与对象的目标语音流。
混音处理可以将多路音频整合为一路音频。例如,虚拟环境包括目标参与对象和多个语音交互参与对象,对于目标参与对象,同时刻接收各个语音交互参与对象的语音流。并且,每一个语音交互参与对象与目标参与对象之间的相对位置也会造成目标参与对象接收语音交互参与对象的语音流的差异。例如,目标参与对象与语音交互参与对象User_G的相对位置较近,目标参与对象与语音交互参与对象User_H的相对位置较远,则目标参与对象接收的语音交互参与对象User_G的语音流的衰减较小,目标参与对象接收的语音交互参与对象User_H的语音流的衰减较大。
本公开实施例的虚拟场景信息交互方法,通过对语音交互参与对象的语音流进行混音处理和双声道处理中的至少一个,可以使得语音交互参与对象的语音流更加立体,提升语音交互参与对象的语音流的音效,提升用户虚拟场景的沉浸式体验感受。
示例性地,根据本公开实施例的虚拟场景信息交互方法还可以包括:响应于针对第一对象的形象调整操作指令,对第一对象的虚拟形象进行调整。其中,形象调整操作指令包括以下中的至少一个:性别调整操作指令、服装调整操作指令、表情调整操作指令以及肢体动作调整操作指令。
示例性地,可以在客户端的显示屏上设置形象调整触发窗口,例如可以通过点击触发生成针对第一对象的形象调整操作指令。
根据本公开实施例的虚拟场景信息交互方法,可以对第一对象的虚拟形象进行调整,满足形象调整需求,可以提供新奇、有趣的使用体验。
示例性地,根据本公开实施例的虚拟场景信息交互方法,虚拟场景数据可以包括以下中的至少一个:虚拟会议场景数据、虚拟展厅场景数据以及虚拟场馆场景数据。目标内容数据可以包括以下中的至少一个:语音数据、文本数据以及直播视频数据。
示例性地,可以根据虚拟会议场景数据生成虚拟会议场景,虚拟会议场景例如可以包括会议桌等。可以根据虚拟展厅场景数据生成虚拟展厅场景,虚拟展厅场景例如可以包括展示平台。可以根据虚拟场馆场景数据生成虚拟场馆场景,虚拟场馆场景例如可以包括场馆场地等。
本公开实施例的虚拟场景信息交互方法,通过相应类别的虚拟场景数据生成相应类别的虚拟场景,可以覆盖各种类别的虚拟场景。还通过相应类别的目标内容数据,可以覆盖播放各种类别的目标内容的需求,提升用户基于虚拟场景的临场感和沉浸感。
图6示意性示出了本公开实施例的虚拟场景信息交互方法应用于虚拟会议场景时对应的系统架构的示意图。以下将结合图6,从系统架构层面说明本公开实施例的虚拟场景信息交互方法。
如图6所示,本公开实施例的虚拟场景信息交互方法的系统架构包括虚拟会议场景业务逻辑层L1和虚拟引擎层L2。
虚拟引擎层L2可以包括基础框架Fr、虚拟内核Co、实时语音通信模块M1和媒体播放模块M2。
虚拟内核可以提供虚拟形象制作、虚拟场景生成、虚拟形象表情管理以及虚拟形象肢体动作管理等功能。虚拟内核可以包括:特效模块、渲染模块、图形模块、输入系统、管理系统以及音频系统等。
例如,虚拟内核通过提供虚拟形象制作功能,可以在虚拟场景中创建第一对象的虚拟形象,得到第一对象对应的目标参与对象。虚拟内核还通过提供虚拟形象表情管理功能和虚拟形象肢体动作管理功能,可以对第一对象的虚拟形象进行调整。
实时语音通信模块可以提供多人语音通话以及空间音效功能。实时语音通信模块可以包括:会话管理单元、语音采集单元、脉冲编码调制单元、语音传输单元以及空间音频混音单元等。
例如,实时语音通信模块可以向目标参与对象订阅语音交互参与对象的语音流,还可以向目标参与对象取消订阅无效语音交互参与对象的语音流。
媒体播放模块可以提供虚拟场景内多媒体直播以及点播媒体流拉流播放功能。
例如,媒体播放模块可以在虚拟场景中播放目标内容。
基础框架可以提供虚拟引擎层的业务层开发接口。基础框架层封装虚拟内核、实时语音通信模块、媒体播放接口并提供虚拟场景开发的若干基础功能。基础功能例如包括资源管理功能、消息管理功能、用户界面框架、网络框架以及热更新功能等。
图6的示例中,虚拟场景为虚拟会议场景,系统架构的业务逻辑层是基于虚拟引擎接口实现的虚拟会议功能实现。主要包含场景地图功能单元U1、虚拟人物形象功能单元U2、虚拟会议场景功能单元U3、会议控制功能单元U4以及媒体播放功能单元U5。
场景地图功能单元提供根据虚拟会议场景模型和参与对象位置生成缩略图的功能,参与对象例如可通过场景地图查找指定的会议场馆或其它参与对象。
虚拟人物形象功能单元提供基于虚拟引擎实现虚拟形象的功能,例如可自定义发型、服装、性别、风格等。
虚拟会议场景功能单元提供基于虚拟引擎生成虚拟会议场景的功能。虚拟会议场景例如可以包括例如圆桌会议和茶座,也可以生成多媒体会议室。
会议控制功能单元是会议的控制与管理单元。会议控制单元例如可以提供房间创建、参与对象进/出管理、媒体发布/订阅、直播/点播媒体订阅,解散房间等正常会议通信与管理功能。
媒体播放功能单元可以提供多媒体会场的直播、点播流媒体播放功能,并且可以接收会议控制功能单元的调用。
图7示意性示出了根据本公开一实施例的虚拟场景信息交互装置的框图。
如图7所示,本公开实施例的虚拟场景信息交互装置700例如包括基础数据获取模块710、目标参与对象确定模块720以及目标内容播放模块730。
基础数据获取模块710,用于响应于针对第一对象的虚拟场景接入请求指令,获取第一对象的基础数据。
目标参与对象确定模块720,用于根据基础数据,在虚拟场景中创建第一对象的虚拟形象,得到与第一对象对应的目标参与对象。
目标内容播放模块730,用于响应于来自第一对象的目标内容播放指令,在虚拟场景中播放目标内容。
根据本公开实施例的虚拟场景信息交互装置,其中,虚拟场景是根据虚拟场景数据生成的;虚拟场景数据包括虚拟播放设备数据,目标内容播放模块可以包括:目标内容获取子模块以及目标内容播放子模块。
目标内容获取子模块,可以用于响应于来自第一对象的目标内容播放指令,获取目标内容数据。
目标内容播放子模块,可以用于通过虚拟播放设备播放目标内容,虚拟播放设备根据虚拟播放设备数据生成,目标内容根据目标内容数据生成。
根据本公开实施例,虚拟场景包括至少一个参与对象,基础数据还包括位置数据;虚拟场景信息交互装置还可以包括:位置坐标确定模块、虚拟场景地图数据确定模块以及虚拟场景地图数据发送模块。
位置坐标确定模块,可以用于根据位置数据,确定参与对象在虚拟场景中的位置坐标。
虚拟场景地图数据确定模块,可以用于根据虚拟场景数据和参与对象在虚拟场景中的位置坐标,确定虚拟场景地图数据。
虚拟场景地图数据发送模块,用于向参与对象发送虚拟场景地图数据。
根据本公开实施例的虚拟场景信息交互装置,还可以包括:调整位置坐标确定模块以及虚拟场景地图数据更新模块。
调整位置坐标确定模块,可以用于响应于针对第一对象的位置调整指令,根据第一对象的位置调整数据,调整目标参与对象的位置坐标,得到目标参与对象的调整后的位置坐标。
虚拟场景地图数据更新模块,可以用于根据位置更新频率和调整后的位置坐标中的至少一个,更新虚拟场景地图数据。
根据本公开实施例参与对象可以包括目标参与对象和至少一个参考参与对象;虚拟场景信息交互装置还可以包括:语音交互参与对象确定模块以及语音流订阅模块。
语音交互参与对象确定模块,可以用于根据语音交互范围阈值和参与对象的位置坐标,确定目标参与对象的语音交互参与对象。
语音流订阅模块,可以用于向目标参与对象订阅语音交互参与对象的语音流。
根据本公开实施例的虚拟场景信息交互装置,还可以包括:无效语音交互参与对象确定模块以及语音流取消订阅模块。
无效语音交互参与对象确定模块,可以用于响应于语音交互参与对象的位置坐标超出语音交互范围阈值,确定无效语音交互参与对象。
语音流取消订阅模块,可以用于向目标参与对象取消订阅无效语音交互参与对象的语音流。
根据本公开实施例的虚拟场景信息交互装置,还可以包括:相对位置数据确定模块以及目标语音流确定模块。
相对位置数据确定模块,可以用于根据目标参与对象的位置坐标和语音交互参与对象的位置坐标,确定语音交互参与对象相对于目标参与对象的相对位置数据。
目标语音流确定模块,可以用于根据相对位置数据,对语音交互参与对象的语音流进行混音处理和双声道处理中的至少一个,得到语音交互参与对象的目标语音流。
根据本公开实施例的虚拟场景信息交互装置,还可以包括:虚拟形象调整模块,用于响应于针对第一对象的形象调整操作指令,对第一对象的虚拟形象进行调整,其中,形象调整操作指令包括以下中的至少一个:性别调整操作指令、服装调整操作指令、表情调整操作指令以及肢体动作调整操作指令。
根据本公开实施例的虚拟场景信息交互装置,虚拟场景数据包括以下中的至少一个:虚拟会议场景数据、虚拟展厅场景数据以及虚拟场馆场景数据;目标内容数据包括以下中的至少一个:语音数据、文本数据以及直播视频数据。
应该理解,本公开装置部分的实施例与本公开方法部分的实施例对应相同或类似,所解决的技术问题和所达到的技术效果也对应相同或类似,本公开在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如虚拟场景信息交互方法。例如,在一些实施例中,虚拟场景信息交互方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的虚拟场景信息交互方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行虚拟场景信息交互方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (21)

1.一种虚拟场景信息交互方法,包括:
响应于针对第一对象的虚拟场景接入请求指令,获取所述第一对象的基础数据;
根据所述基础数据,在虚拟场景中创建所述第一对象的虚拟形象,得到与所述第一对象对应的目标参与对象;以及
响应于来自所述第一对象的目标内容播放指令,在所述虚拟场景中播放目标内容。
2.根据权利要求1所述的方法,其中,所述虚拟场景是根据虚拟场景数据生成的;所述虚拟场景数据包括虚拟播放设备数据,所述响应于来自所述第一对象的目标内容播放指令,在所述虚拟场景中播放目标内容包括:
响应于来自所述第一对象的目标内容播放指令,获取目标内容数据;以及
通过虚拟播放设备播放所述目标内容,所述虚拟播放设备根据所述虚拟播放设备数据生成,所述目标内容根据所述目标内容数据生成。
3.根据权利要求1所述的方法,其中,所述虚拟场景包括至少一个参与对象,所述基础数据还包括位置数据;所述虚拟场景信息交互方法还包括:
根据所述位置数据,确定所述参与对象在所述虚拟场景中的位置坐标;
根据所述虚拟场景数据和所述参与对象在所述虚拟场景中的位置坐标,确定虚拟场景地图数据;以及
向所述参与对象发送所述虚拟场景地图数据。
4.根据权利要求3所述的方法,还包括:
响应于针对所述第一对象的位置调整指令,根据所述第一对象的位置调整数据,调整所述目标参与对象的所述位置坐标,得到所述目标参与对象的调整后的位置坐标;以及
根据位置更新频率和所述调整后的位置坐标中的至少一个,更新所述虚拟场景地图数据。
5.根据权利要求4所述的方法,其中,所述参与对象包括所述目标参与对象和至少一个参考参与对象;所述虚拟场景信息交互方法还包括:
根据语音交互范围阈值和所述参与对象的所述位置坐标,确定所述目标参与对象的语音交互参与对象;以及
向所述目标参与对象订阅所述语音交互参与对象的语音流。
6.根据权利要求5所述的方法,还包括:
响应于所述语音交互参与对象的所述位置坐标超出所述语音交互范围阈值,确定无效语音交互参与对象;以及
向所述目标参与对象取消订阅所述无效语音交互参与对象的语音流。
7.根据权利要求3所述的方法,还包括:
根据所述目标参与对象的位置坐标和所述语音交互参与对象的位置坐标,确定所述语音交互参与对象相对于所述目标参与对象的相对位置数据;以及
根据所述相对位置数据,对所述语音交互参与对象的语音流进行混音处理和双声道处理中的至少一个,得到所述语音交互参与对象的目标语音流。
8.根据权利要求1-7中任一项所述的方法,还包括:
响应于针对所述第一对象的形象调整操作指令,对所述第一对象的虚拟形象进行调整,其中,所述形象调整操作指令包括以下中的至少一个:性别调整操作指令、服装调整操作指令、表情调整操作指令以及肢体动作调整操作指令。
9.根据权利要求2所述的方法,所述虚拟场景数据包括以下中的至少一个:虚拟会议场景数据、虚拟展厅场景数据以及虚拟场馆场景数据;所述目标内容数据包括以下中的至少一个:语音数据、文本数据以及直播视频数据。
10.一种虚拟场景信息交互装置,包括:
基础数据获取模块,用于响应于针对第一对象的虚拟场景接入请求指令,获取所述第一对象的基础数据;
目标参与对象确定模块,用于根据所述基础数据,在虚拟场景中创建所述第一对象的虚拟形象,得到与所述第一对象对应的目标参与对象;以及
目标内容播放模块,用于响应于来自所述第一对象的目标内容播放指令,在所述虚拟场景中播放目标内容。
11.根据权利要求10所述的装置,其中,所述虚拟场景是根据虚拟场景数据生成的;所述虚拟场景数据包括虚拟播放设备数据,所述目标内容播放模块包括:
目标内容获取子模块,用于响应于来自所述第一对象的目标内容播放指令,获取目标内容数据;以及
目标内容播放子模块,用于通过虚拟播放设备播放所述目标内容,所述虚拟播放设备根据所述虚拟播放设备数据生成,所述目标内容根据所述目标内容数据生成。
12.根据权利要求10所述的装置,其中,所述虚拟场景包括至少一个参与对象,所述基础数据还包括位置数据;所述虚拟场景信息交互装置还包括:
位置坐标确定模块,用于根据所述位置数据,确定所述参与对象在所述虚拟场景中的位置坐标;
虚拟场景地图数据确定模块,用于根据所述虚拟场景数据和所述参与对象在所述虚拟场景中的位置坐标,确定虚拟场景地图数据;以及
虚拟场景地图数据发送模块,用于向所述参与对象发送所述虚拟场景地图数据。
13.根据权利要求12所述的装置,还包括:
调整位置坐标确定模块,用于响应于针对所述第一对象的位置调整指令,根据所述第一对象的位置调整数据,调整所述目标参与对象的所述位置坐标,得到所述目标参与对象的调整后的位置坐标;以及
虚拟场景地图数据更新模块,用于根据位置更新频率和所述调整后的位置坐标中的至少一个,更新所述虚拟场景地图数据。
14.根据权利要求13所述的装置,其中,所述参与对象包括所述目标参与对象和至少一个参考参与对象;所述虚拟场景信息交互装置还包括:
语音交互参与对象确定模块,用于根据语音交互范围阈值和所述参与对象的所述位置坐标,确定所述目标参与对象的语音交互参与对象;以及
语音流订阅模块,用于向所述目标参与对象订阅所述语音交互参与对象的语音流。
15.根据权利要求14所述的装置,还包括:
无效语音交互参与对象确定模块,用于响应于所述语音交互参与对象的所述位置坐标超出所述语音交互范围阈值,确定无效语音交互参与对象;以及
语音流取消订阅模块,用于向所述目标参与对象取消订阅所述无效语音交互参与对象的语音流。
16.根据权利要求12所述的装置,还包括:
相对位置数据确定模块,用于根据所述目标参与对象的位置坐标和所述语音交互参与对象的位置坐标,确定所述语音交互参与对象相对于所述目标参与对象的相对位置数据;以及
目标语音流确定模块,用于根据所述相对位置数据,对所述语音交互参与对象的语音流进行混音处理和双声道处理中的至少一个,得到所述语音交互参与对象的目标语音流。
17.根据权利要求10-16中任一项所述的装置,还包括:
虚拟形象调整模块,用于响应于针对所述第一对象的形象调整操作指令,对所述第一对象的虚拟形象进行调整,其中,所述形象调整操作指令包括以下中的至少一个:性别调整操作指令、服装调整操作指令、表情调整操作指令以及肢体动作调整操作指令。
18.根据权利要求11所述的装置,所述虚拟场景数据包括以下中的至少一个:虚拟会议场景数据、虚拟展厅场景数据以及虚拟场馆场景数据;所述目标内容数据包括以下中的至少一个:语音数据、文本数据以及直播视频数据。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
CN202210352747.8A 2022-03-31 2022-03-31 虚拟场景信息交互方法、装置、设备以及存储介质 Pending CN114697755A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210352747.8A CN114697755A (zh) 2022-03-31 2022-03-31 虚拟场景信息交互方法、装置、设备以及存储介质
KR1020220177568A KR20230002211A (ko) 2022-03-31 2022-12-16 가상 장면 정보 인터랙션 방법, 가상 장면 정보 인터랙션 장치, 전자장비, 저장매체 및 컴퓨터 프로그램
JP2023055900A JP2023082119A (ja) 2022-03-31 2023-03-30 バーチャルシーン情報インタラクション方法、装置、電子機器、記憶媒体及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210352747.8A CN114697755A (zh) 2022-03-31 2022-03-31 虚拟场景信息交互方法、装置、设备以及存储介质

Publications (1)

Publication Number Publication Date
CN114697755A true CN114697755A (zh) 2022-07-01

Family

ID=82143200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210352747.8A Pending CN114697755A (zh) 2022-03-31 2022-03-31 虚拟场景信息交互方法、装置、设备以及存储介质

Country Status (3)

Country Link
JP (1) JP2023082119A (zh)
KR (1) KR20230002211A (zh)
CN (1) CN114697755A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273865A (zh) * 2022-07-26 2022-11-01 中国第一汽车股份有限公司 一种智能语音交互方法、装置、设备和存储介质
CN115439195A (zh) * 2022-11-07 2022-12-06 杭州脸脸会网络技术有限公司 虚拟账户创建方法、系统、服务器及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107103801A (zh) * 2017-04-26 2017-08-29 北京大生在线科技有限公司 远程三维场景互动教学系统及控制方法
WO2018098720A1 (zh) * 2016-11-30 2018-06-07 深圳益强信息科技有限公司 一种基于虚拟现实的数据处理方法及系统
WO2020045837A1 (ko) * 2018-08-28 2020-03-05 김영대 가상 및 증강 현실 강의실에서 인공지능 기능의 자동 장면 전환 기술을 이용한 스마트-원격 강의 방법 및 그 장치
CN112783320A (zh) * 2020-10-21 2021-05-11 中山大学 一种沉浸式虚拟现实的案例教学展示方法及系统
CN112870706A (zh) * 2021-03-19 2021-06-01 腾讯科技(深圳)有限公司 教学内容的显示方法、装置、设备及存储介质
CN113325954A (zh) * 2021-05-27 2021-08-31 百度在线网络技术(北京)有限公司 用于处理虚拟对象的方法、装置、设备、介质和产品
CN114071180A (zh) * 2021-11-24 2022-02-18 上海哔哩哔哩科技有限公司 直播间展示方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018098720A1 (zh) * 2016-11-30 2018-06-07 深圳益强信息科技有限公司 一种基于虚拟现实的数据处理方法及系统
CN107103801A (zh) * 2017-04-26 2017-08-29 北京大生在线科技有限公司 远程三维场景互动教学系统及控制方法
WO2020045837A1 (ko) * 2018-08-28 2020-03-05 김영대 가상 및 증강 현실 강의실에서 인공지능 기능의 자동 장면 전환 기술을 이용한 스마트-원격 강의 방법 및 그 장치
CN112783320A (zh) * 2020-10-21 2021-05-11 中山大学 一种沉浸式虚拟现实的案例教学展示方法及系统
CN112870706A (zh) * 2021-03-19 2021-06-01 腾讯科技(深圳)有限公司 教学内容的显示方法、装置、设备及存储介质
CN113325954A (zh) * 2021-05-27 2021-08-31 百度在线网络技术(北京)有限公司 用于处理虚拟对象的方法、装置、设备、介质和产品
CN114071180A (zh) * 2021-11-24 2022-02-18 上海哔哩哔哩科技有限公司 直播间展示方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273865A (zh) * 2022-07-26 2022-11-01 中国第一汽车股份有限公司 一种智能语音交互方法、装置、设备和存储介质
CN115439195A (zh) * 2022-11-07 2022-12-06 杭州脸脸会网络技术有限公司 虚拟账户创建方法、系统、服务器及计算机可读存储介质

Also Published As

Publication number Publication date
KR20230002211A (ko) 2023-01-05
JP2023082119A (ja) 2023-06-13

Similar Documents

Publication Publication Date Title
US11785056B2 (en) Web browser interface for spatial communication environments
US20190332400A1 (en) System and method for cross-platform sharing of virtual assistants
CN106170789B (zh) 用于向创意的着陆页提供功能扩展的方法和系统
US8831196B2 (en) Telephony interface for virtual communication environments
US8407605B2 (en) Application sharing
US20180197347A1 (en) Managing virtual reality objects
US11080941B2 (en) Intelligent management of content related to objects displayed within communication sessions
CN110326290A (zh) 实况内容和录制的内容的同时观看
CN114697755A (zh) 虚拟场景信息交互方法、装置、设备以及存储介质
US10320865B2 (en) Graphical indicator of presence, identity, and action for media sharing on a display
US11785194B2 (en) Contextually-aware control of a user interface displaying a video and related user text
US20180295158A1 (en) Displaying group expressions for teleconference sessions
KR102580110B1 (ko) 내비게이션 가능한 아바타들이 있는 웹 기반 화상 회의 가상 환경 및 그 응용들
US20220076476A1 (en) Method for generating user avatar, related apparatus and computer program product
JP2021528710A (ja) マルチプロフィールを提供する方法およびシステム
CN116964608A (zh) 用于外部用户在会议聊天中选择性每次消息参与的数据对象
CN117519825A (zh) 一种数字人分身交互方法、装置、电子设备和存储介质
CN112218144A (zh) 投屏控制方法、装置、电子设备以及计算机可读介质
KR20220159968A (ko) 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
JP2015527818A (ja) ビデオ会議環境のためのビデオ表示変更
WO2023229738A1 (en) 2d and 3d transitions for renderings of users participating in communication sessions
US20220191556A1 (en) Method for processing live broadcast information, electronic device and storage medium
CN116965007A (zh) 用于外部用户在会议聊天中选择性每次消息参与的数据对象
CN113286165A (zh) 一体化直播管理平台及方法、电子设备及可读介质
CN113327309A (zh) 视频播放方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination