CN115550600A - 识别音频数据声音来源的方法、存储介质和电子设备 - Google Patents

识别音频数据声音来源的方法、存储介质和电子设备 Download PDF

Info

Publication number
CN115550600A
CN115550600A CN202211183456.7A CN202211183456A CN115550600A CN 115550600 A CN115550600 A CN 115550600A CN 202211183456 A CN202211183456 A CN 202211183456A CN 115550600 A CN115550600 A CN 115550600A
Authority
CN
China
Prior art keywords
audio data
avatars
virtual
avatar
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211183456.7A
Other languages
English (en)
Inventor
张帅舸
刘成锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN202211183456.7A priority Critical patent/CN115550600A/zh
Publication of CN115550600A publication Critical patent/CN115550600A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Stereophonic System (AREA)

Abstract

本发明公开了一种识别音频数据声音来源的方法、存储介质和电子设备。其中,该方法包括:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。本发明解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。

Description

识别音频数据声音来源的方法、存储介质和电子设备
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种识别音频数据声音来源的方法、存储介质和电子设备。
背景技术
远程会议是一种常用的会议形式。在传统的远程会议中,由于展示与会人的画面,确定当前说话人的方式可以是:通过在远程会议产品设计中采用改变画面布局、设置画面高亮等方式标注当前说话人;或者根据与会人的画面,通过动作、口型等信息快速分辨当前说话人。
近年来,远程会议场景中出现越来越多的虚拟会议室,在虚拟会议室中,与会人的画面被与会人对应的虚拟形象代替,虚拟会议室的场景布局和与会人的虚拟形象绑定。此时,产品设计中难以通过改变场景布局标注当前说话人,虚拟会议室的听众也难以快速分辨当前说话人。
此外,在虚拟会议室中,可能出现多位与会人同时发言的情况,此时会议语音较为混杂,听众难以清晰地分辨语音,导致用户体验感差。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种识别音频数据声音来源的方法、存储介质和电子设备,以至少解决虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
根据本发明实施例的一个方面,提供了一种识别音频数据声音来源的方法,包括:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
根据本发明实施例的另一方面,还提供了一种识别音频数据声音来源的方法,包括:接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟会议室内的声音来源。
根据本发明实施例的另一方面,还提供了一种识别音频数据声音来源的方法,包括:接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟课堂内的声音来源。
根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,上述计算机可读存储介质包括存储的程序,其中,在上述程序运行时控制上述计算机可读存储介质所在设备执行任意一项上述的识别音频数据声音来源的方法。
根据本发明实施例的另一方面,还提供了一种电子设备,包括:处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
在本发明实施例中,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的声音来源。
容易注意到的是,通过本发明实施例,当预设虚拟空间内存在多个当前说话人时,通过多个当前说话人与收听人之间的相对位置关系,识别多个当前说话人的音频数据的声音来源,能够在预设虚拟空间内模拟人类的双耳效应确定说话人的方位,达到了在预设虚拟空间内根据多个说话人虚拟形象和收听人虚拟形象之间的相对位置关系识别多个说话人虚拟形象的音频数据的声音来源的目的,从而实现了在虚拟空间中出现多位说话人同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1示出了一种用于实现识别音频数据声音来源的方法的计算机终端(或移动设备)的硬件结构框图;
图2是根据本发明实施例的一种识别音频数据声音来源的方法的虚拟现实设备的硬件环境的示意图;
图3是根据本发明实施例的一种识别音频数据声音来源的方法的计算环境的结构框图;
图4是根据本发明实施例的一种识别音频数据声音来源的方法的流程图;
图5是根据本发明实施例的一种虚拟会议室的图形用户界面的示意图;
图6是根据本发明实施例的一种信号权重计算方式的示意图;
图7是根据本发明实施例的一种虚拟会议室中音频多声道回放过程的示意图;
图8是根据本发明实施例的一种音频数据双声道回放方式的示意图;
图9是根据本发明实施例的另一种识别音频数据声音来源的方法的流程图;
图10是根据本发明实施例的另一种识别音频数据声音来源的方法的流程图;
图11是根据本发明实施例的一种识别音频数据声音来源的装置的结构示意图;
图12是根据本发明实施例的一种可选的识别音频数据声音来源的装置的结构示意图;
图13是根据本发明实施例的另一种可选的识别音频数据声音来源的装置的结构示意图;
图14是根据本发明实施例的另一种识别音频数据声音来源的装置的结构示意图;
图15是根据本发明实施例的另一种可选的识别音频数据声音来源的装置的结构示意图;
图16是根据本发明实施例的又一种识别音频数据声音来源的装置的结构示意图;
图17是根据本发明实施例的另一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本发明实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
虚拟会议室:是指通过线上的虚拟数字空间实现会议场景的应用产品。通过虚拟会议室,用户可以远程加入虚拟会议。用户终端可以通过三维渲染、虚拟现实(VirtualReality,VR)等技术为用户还原会议场景,用户还可以通过用户终端关联的摄像头、话筒、扬声器等设备参加虚拟会议(如发言或收听)。
双耳效应:是指人类可以依靠双耳间的音量差、时间差和音色差判别声音方位的效应。
空间音频:是指通过多声道、环绕声等技术提供可以感知声音来源的空间位置信息的音频回放技术。
实施例1
根据本发明实施例,还提供了一种识别音频数据声音来源的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本发明实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现识别音频数据声音来源的方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a,102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器(Microcontroller Unit,MCU)或可编程逻辑器件(Field Programmable Gate Array,FPGA)等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,计算机终端10还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(Universal Serial Bus,USB)端口(可以作为BUS总线的端口中的一个端口被包括)、网络接口、光标控制设备(如鼠标、触控板等)、键盘、电源和/或相机。
本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本发明实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的识别音频数据声音来源的方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的识别音频数据声音来源的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接口与网络连接以接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的有线和/或无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
如图1所示的显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或移动设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或移动设备)中的部件的类型。
此处需要说明的是,在一些实施例中,上述图1所示的计算机设备(或移动设备)具有触摸显示器(也被称为“触摸屏”或“触摸显示屏”)。在一些实施例中,上述图1所示的计算机设备(或移动设备)具有图像用户界面(GUI),用户可以通过触摸触敏表面上的手指接触和/或手势来与GUI进行人机交互,此处的人机交互功能可选的包括如下交互:创建网页、绘图、文字处理、制作电子文档、游戏、视频会议、即时通信、收发电子邮件、通话界面、播放数字视频、播放数字音乐和/或网络浏览等、用于执行上述人机交互功能的可执行指令被配置/存储在一个或多个处理器可执行的计算机程序产品或可读存储介质中。
本发明实施例一所提供的方法实施例可以在虚拟现实(Virtual Reality,VR)设备或增强现实(Augmented Reality,AR)设备中执行。以VR设备为例,图2是根据本发明实施例的一种识别音频数据声音来源的方法的虚拟现实设备的硬件环境的示意图。如图2所示,虚拟现实设备204与终端206相连接,终端206与服务器202通过网络进行连接,上述虚拟现实设备204并不限定于:虚拟现实头盔、虚拟现实眼镜、虚拟现实一体机等,上述终端204并不限定于PC、手机、平板电脑等,服务器202可以为媒体文件运营商对应的服务器,上述网络包括但不限于:广域网、城域网或局域网。
可选地,本发明实施例的虚拟现实设备204包括:存储器2041、处理器2042和传输装置2043(图2中未示出)。存储器2041用于存储应用程序,该应用程序可以用于执行本发明实施例提供的识别音频数据声音来源的方法。处理器2042可以调用并执行存储器2041中存储的应用程序,以通过本发明实施例提供的识别音频数据声音来源的方法得到所识别的音频数据的声音来源。
可选地,本发明实施例的终端206也可以用于执行识别音频数据声音来源的方法,并通过VR设备或AR设备的显示画面展示音频数据的声音来源信息,或者通过VR设备或AR设备关联的音频输出设备播放执行识别音频数据声音来源的方法过程中生成的音频。
图2示出的硬件结构框图,不仅可以作为上述AR/VR设备(或移动设备)的硬件环境的示例性框图,还可以作为上述服务器的示例性框图。
图3是根据本发明实施例的一种识别音频数据声音来源的方法的计算环境的结构框图,图3以框图示出了使用上述图2所示的VR设备(或移动设备)作为计算环境301中计算节点的一种实施例。
仍然如图3所示,计算环境301包括运行在分布式网络上的多个(图3中采用310-1,310-2,…,来示出)计算节点(如服务器)。每个计算节点都包含本地处理和内存资源,终端用户302可以在计算环境301中远程运行应用程序或存储数据。应用程序可以作为计算环境301中的多个服务320-1(代表服务A),320-2(代表服务D),320-3(代表服务E)和320-4(代表服务H)进行提供。
仍然如图3所示,终端用户302可以通过客户端上的web浏览器或其他软件应用程序提供和访问服务,在一些实施例中,可以将终端用户302的供应和/或请求提供给入口网关330。入口网关330可以包括一个相应的代理来处理针对服务320(计算环境301中提供的一个或多个服务)的供应和/或请求。
仍然如图3所示,服务320是根据计算环境301支持的各种虚拟化技术来提供或部署的。在一些实施例中,可以根据基于虚拟机(Virtual Machine,VM)的虚拟化、基于容器的虚拟化和/或类似的方式提供服务320。基于虚拟机的虚拟化可以是通过初始化虚拟机来模拟真实的计算机,在不直接接触任何实际硬件资源的情况下执行程序和应用程序。在虚拟机虚拟化机器的同时,根据基于容器的虚拟化,可以启动容器来虚拟化整个操作系统(Operating System,OS),以便多个工作负载可以在单个操作系统实例上运行。
在基于容器虚拟化的一个实施例中,服务320的若干容器可以被组装成一个POD(例如,Kubernetes POD)。举例来说,如图3所示,服务320-2可以配备一个或多个POD 340-1,340-2,…,340-N(统称为POD 340)。每个POD 340可以包括代理345和一个或多个容器342-1,342-2,…,342-M(统称为容器342)。POD 340中一个或多个容器342处理与服务的一个或多个相应功能相关的请求,代理345通常控制与服务相关的网络功能,如路由、负载均衡等。其他服务320也可以类似于POD 340的POD。
在操作过程中,执行来自终端用户302的用户请求可能需要调用计算环境301中的一个或多个服务320,执行一个服务320的一个或多个功能可能需要调用另一个服务320的一个或多个功能。如图3所示,服务320-1(代表服务A)从入口网关330接收终端用户302的用户请求,服务320-1(代表服务A)可以调用服务320-2(代表服务D),服务320-2(代表服务D)可以请求服务320-3(代表服务E)执行一个或多个功能。
上述的计算环境可以是云计算环境,资源的分配由云服务提供上管理,允许功能的开发无需考虑实现、调整或扩展服务器。该计算环境允许开发人员在不构建或维护复杂基础设施的情况下执行响应事件的代码。服务可以被分割完成一组可以自动独立伸缩的功能,而不是扩展单个硬件设备来处理潜在的负载。
在上述运行环境下,本发明提供了如图4所示的一种识别音频数据声音来源的方法。图4是根据本发明实施例的一种识别音频数据声音来源的方法的流程图,如图4所示,该识别音频数据声音来源的方法包括:
步骤S41,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;
步骤S42,利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
步骤S43,基于空间位置关系识别音频数据的声音来源。
上述预设虚拟空间可以是虚拟会议室对应的虚拟数字空间。本发明实施例中以虚拟会议室为例,在下文中对技术方案进行说明。
在本发明实施例中,上述第一虚拟形象可以是虚拟会议室中当前时刻的说话人对应的虚拟形象。上述多个第一虚拟形象可以是虚拟会议室中同时存在的多个说话人对应的多个虚拟形象。上述多个第一虚拟形象的音频数据可以是虚拟会议室中多个说话人发出的音频数据。上述多个第一虚拟形象的第一位置数据可以是该多个第一虚拟对象中每个虚拟对象在虚拟会议室中的空间坐标位置信息
在本发明实施例中,上述第二虚拟形象可以是虚拟会议室中当前时刻的收听人对应的虚拟形象。上述第二位置数据可以是上述第二虚拟对象在虚拟会议室中的空间坐标位置信息。
利用上述第一位置数据和上述第二位置数据,可以确定上述空间位置关系。该空间位置关系可以是虚拟会议室中当前时刻的收听人对应的虚拟形象(相当于上述第二虚拟形象)与上述多个说话人中每个说话人对应的虚拟形象(相当于上述第一虚拟形象)之间的相对位置关系(如,包括方位、距离等)。
在本发明实施例中,基于上述空间位置关系,可以识别音频数据的声音来源。例如在虚拟会议室中,基于收听人对应的虚拟形象与多个说话人中每个说话人对应的虚拟形象之间的相对位置关系,可以识别音频数据中的哪个声音来源于多个说话人中的哪个说话人。
容易理解的是,本发明实施例提供的上述方法的重点在于:能够模仿人类双耳效应,在预设虚拟空间中实现音频空间来源识别,具体地,可以在虚拟会议室中帮助收听人快速识别当前说话人。
通过本发明实施例的上述步骤S41至步骤S43,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的声音来源。
容易注意到的是,通过本发明实施例,当预设虚拟空间内存在多个当前说话人时,通过多个当前说话人与收听人之间的相对位置关系,识别多个当前说话人的音频数据的声音来源,能够在预设虚拟空间内模拟人类的双耳效应确定说话人的方位,达到了在预设虚拟空间内根据多个说话人虚拟形象和收听人虚拟形象之间的相对位置关系识别多个说话人虚拟形象的音频数据的声音来源的目的,从而实现了在虚拟空间中出现多位说话人同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
下面对本发明实施例的上述方法进行进一步地介绍。
在一种可选的实施例中,在步骤S42中,利用第一位置数据和第二位置数据确定空间位置关系,包括如下方法步骤:
步骤S421,利用多个第一虚拟形象中每个第一虚拟形象在预设虚拟空间内的第一坐标位置与第二虚拟形象在预设虚拟空间内的第二坐标位置进行差值运算,得到空间位置关系,其中,空间位置关系包括:第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系,第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对距离关系。
在上述可选的实施例中,所进行的差值计算可以是空间向量差值计算。针对多个第一虚拟形象中每个第一虚拟形象在预设虚拟空间内的第一坐标位置与第二虚拟形象在预设虚拟空间内的第二坐标位置,确定空间向量,空间向量的长度可以用于表示在预设虚拟空间内第一虚拟形象中每个第一虚拟形象与第二虚拟形象之间的相对距离关系,空间向量的方向可以用于表示在预设虚拟空间内第一虚拟形象中每个第一虚拟形象与第二虚拟形象之间的相对方位关系,其中,空间向量的方向可以用该空间向量与通道朝向(如当前收听人的左声道方向或右声道方向)之间的夹角表示。
本发明实施例提供的上述识别音频数据声音来源的方法可以应用于电子商务服务场景、教育培训场景、医疗卫生场景、科研学术场景下进行虚拟会议的情景中。以下以电子商务服务场景的虚拟会议室为例,对本发明实施例的技术方案进行具体的说明。
图5是根据本发明实施例的一种虚拟会议室的图形用户界面的示意图,如图5所示,在电子商务服务场景下的虚拟会议室M1中,可以包括:虚拟会议大厅、多个虚拟座位、多个与会人的虚拟形象(图5中显示有说话人A、说话人B和与会人C)等。本例中,与会人C为当前用户对应的虚拟人物,该与会人C的当前身份为收听人。
仍然如图5所示,在电子商务服务场景下,用于提供虚拟会议室M1的应用产品中,可以提供如下功能:“邀请加入大厅”功能(用于邀请当前未入会的人员加入当前虚拟会议室M1),“坐下”功能(用于控制当前用户对应的虚拟形象坐在指定的虚拟座位上),“静音”功能(用于关闭当前用户的话筒),“音量”功能(用于调节当前用户的扬声器或耳机的音量大小),“分享”功能(用于将当前用户的屏幕广播给虚拟会议室M1中的其他与会人),“设置”功能(用于支持当前用户为虚拟会议室M1调整系统偏好设置),“退出”功能(用于退出虚拟会议室M1)。
仍然如图5所示,在虚拟会议室M1中,说话人A位于与会人C的左侧,说话人B位于与会人C的右侧。
示例性地,在电子商务服务场景下的虚拟会议室M1中,为与会人C识别音频数据声音来源的过程可以包括:接收说话人A发送的位置坐标XA和音频数据SA,接收说话人B发送的位置坐标XB和音频数据SB。
需要说明的是,位置坐标XA为说话人A在虚拟会议室M1中的空间坐标,音频数据SA为说话人A发出的声音数据,位置坐标XB为说话人B在虚拟会议室M1中的空间坐标,音频数据SB为说话人B发出的声音数据。
在虚拟会议室M1中,与会人C所使用的当前设备可以给出该与会人C的位置坐标XC。
利用上述说话人A的位置坐标XA和与会人C的位置坐标XC,可以在虚拟会议室M1中确定说话人A与与会人C之间的空间位置关系;利用上述说话人B的位置坐标XB和与会人C的位置坐标XC,可以在虚拟会议室M1中确定说话人B与与会人C之间的空间位置关系。
需要说明的是,上述虚拟会议室M1可以是虚拟二维会议室或虚拟三维会议室。在虚拟二维会议室中,所有与会人(包括说话人和收听人)的空间坐标为二维坐标;在虚拟三维会议室中,所有与会人(包括说话人和收听人)的空间坐标为三维坐标。
在一种可选的实施例中,在步骤S43中,基于空间位置关系识别音频数据的声音来源,包括如下方法步骤:
步骤S431,利用空间位置关系确定音频数据在目标回放设备上每个声道分量对应的权重系数,其中,目标回放设备为第二虚拟形象关联的回放设备并且目标回放设备支持多声道的空间音频回放;
步骤S432,基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频;
步骤S433,通过多声道空间音频识别音频数据的声音来源。
在上述可选的实施例中,目标回放设备可以是当前身份为收听人的用户所采用的音频输出设备,该音频输出设备可以支持多声道的空间音频回放。利用第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系和相对距离关系,可以确定多个第一虚拟形象的音频数据在上述目标回放设备上每个声道分量对应的权重系数。
上述权重系数可以用于表示多个第一虚拟形象中每个第一虚拟形象对应的音频数据在目标回放设备上每个声道上的信号强度。例如,某个第一虚拟形象在目标回放设备的左声道上权重系数越大,表示当前收听人在左声道中越能够清晰地听到该第一虚拟形象的声音(如音量更大)。
容易理解的是,通过基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频,以及通过多声道空间音频识别音频数据的声音来源,能够结合多个说话人在虚拟会议室中的空间位置关系,帮助当前收听人快速分别声音来源。
在一种可选的实施例中,在步骤S431中,利用空间位置关系确定音频数据在目标回放设备上每个声道分量对应的权重系数,包括如下方法步骤:
步骤S4311,利用空间位置关系确定目标长度与目标夹角,其中,目标长度为目标回放设备上每个声道分量对应的收听位置与多个第一虚拟形象中每个第一虚拟形象的第一坐标位置形成的目标向量的长度,目标夹角为目标向量对应的方向与目标回放设备上每个声道分量对应的方向之间的夹角;
步骤S4312,基于目标长度计算得到目标回放设备上每个声道分量对应的第一衰减系数,以及基于目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数,其中,第一衰减系数为距离性衰减系数,第二衰减系数为指向性衰减系数;
步骤S4313,采用第一衰减系数和第二衰减系数计算得到目标回放设备上每个声道分量对应的权重系数。
在上述可选的实施例中,目标回放设备上每个声道分量对应的收听位置可以对应于当前收听人的多个收听位置,目标向量对应的方向可以对应于当前收听人的收听方向(如双耳朝向)。例如,左声道分量的收听位置可以对应于当前收听人的左耳位置,右声道分量的收听位置可以对应于当前收听人的右耳位置,左声道的收听方向可以对应于当前收听人的左耳朝向,右声道的收听方向可以对应于当前收听人的右耳朝向。该左耳位置、该右耳位置、该左耳朝向和该右耳朝向可以基于当前收听人的位置坐标利用预设规则进行计算,也可以利用当前收听人使用的其他智能设备(如智能穿戴设备:智能眼镜、智能手表、智能耳麦等,该智能设备与当前收听人使用的智能手机相关联)实时获取。
具体地例如,如果当前收听人佩戴有与智能手机相关联的智能耳机,该智能耳机安装有陀螺仪,通过该智能手机的摄像头对当前收听人进行动作捕捉,并利用光学识别算法得到当前收听人的面部朝向,基于该面部朝向利用该智能耳机实时获取当前收听人的双耳实时朝向(或者结合使用摄像头进行),并利用该实时朝向确定该当前收听人在虚拟会议室中的空间位置关系,进而计算衰减系数和声道权重等。比如当前收听人C的头部向左侧偏转至面向说话人A时,说话人A与收听人C之间的相对方位关系从“A位于C左侧”变换为“A位于C正前方”。由此,可以增加当前收听人的与会沉浸感。
仍然以在虚拟会议室M1中为与会人C识别音频数据声音来源为例对本发明的上述可选的实施例进行具体说明。
利用上述说话人A的位置坐标XA和与会人C的位置坐标XC,可以在虚拟会议室M1中确定空间向量
Figure BDA0003867691330000121
空间向量
Figure BDA0003867691330000122
的长度表示说话人A和与会人C之间的相对距离关系;由于说话人A位于与会人C的左侧,空间向量
Figure BDA0003867691330000131
与与会人C的左声道L方向之间的夹角表示说话人A和与会人C之间的相对方位关系。
同理,利用上述说话人B的位置坐标XB和与会人C的位置坐标XC,可以在虚拟会议室M1中确定空间向量
Figure BDA0003867691330000132
空间向量
Figure BDA0003867691330000133
的长度表示说话人B和与会人C之间的相对距离关系;由于说话人B位于与会人C的右侧,空间向量
Figure BDA0003867691330000134
与与会人C的右声道R方向之间的夹角表示说话人B和与会人C之间的相对方位关系。
示例性地,在电子商务服务场景下的虚拟会议室M1中,为与会人C识别音频数据声音来源的过程可以包括:根据说话人A的位置坐标XA、说话人B的位置坐标XB与会人C的位置坐标XC,计算得到说话人A和说话人B在与会人C的左声道L和右声道R中信号振幅的权重。
需要说明的是,上述信号振幅的权重包括:说话人A在与会者C的左声道L中的信号权重WLA,说话人A在与会者C的右声道R中的信号权重WRA,说话人B在与会者C的左声道L中的信号权重WLB,说话人B在与会者C的右声道R中的信号权重WRB
图6是根据本发明实施例的一种信号权重计算方式的示意图,如图6所示,以说话人A在与会者C的左声道L中的信号权重WLA为例,计算该信号权重WLA的具体实现方式可以包括如下方法步骤:
步骤E51,根据预设人耳偏移模型(可以是由技术人员参考现实场景的双耳效应根据本发明提供的方法预先确定的),利用下述公式(1)计算在虚拟会议室M1中与会人C的左耳的收听位置CL
CL=XC+(-1,0)×r 公式(1)
在上述公式(1)中,XC为与会人C在虚拟会议室M1中的空间坐标,(-1,0)表示与会人C的左声道L的朝向,r表示预设常量;
步骤E52,基于与会人C的左耳的收听位置CL和说话人A的位置坐标XA,确定向量
Figure BDA0003867691330000135
(从CL指向XA的向量)的长度d,以及确定向量
Figure BDA0003867691330000136
与与会人C的左声道L的朝向之间的夹角θ;
步骤E53,根据现实场景中点声源在自由空间中的传播规律,采用预设反函数进行拟合,得到说话人A的音频数据SA在虚拟会议室M1的空间中的衰减系数a1(相当于上述第一衰减系数),本例中取a1=d-1
步骤E54,根据现实场景中人耳的指向性规律,采用预设心形函数进行拟合,得到说话人A的音频数据SA的指向性衰减系数a2(相当于上述第二衰减系数),本例中取
Figure BDA0003867691330000141
步骤E55,将衰减系数a1与指向性衰减系数a2相乘,得到说话人A在与会者C的左声道L中的信号权重WLA=a1×a2
需要说明的是,上述步骤E53中采用的预设反函数和上述步骤E54中采用的预设心形函数仅为一种可能的示例,在具体应用场景中,可以根据场景需求采用其他可能的函数进行拟合和权重计算。
在一种可选的实施例中,在步骤S4312中,基于目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数,包括如下方法步骤:
步骤S4314,对目标回放设备上每个声道分量对应的音频数据进行快速傅里叶变换,得到变换结果;
步骤S4315,基于变换结果,采用目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数。
在上述可选的实施例中,在基于目标夹角计算得到目标回放设备上每个声道分量对应的朝向性衰减系数(相当于上述第二衰减系数)时,还可以将虚拟空间中不同声音来源引起的相位差、频谱影响等因素纳入考量,得到更加真实的空间音频效果。
仍然以在虚拟会议室M1中为与会人C识别音频数据声音来源为例对本发明的上述可选的实施例进行具体说明。
在计算说话人A在与会者C的左声道L中的信号权重WLA时,上述步骤E54中,计算指向性衰减系数a2(相当于上述第二衰减系数)的过程中,由于人耳对于不同频域的收音指向性不同,可以先对音频数据SA进行快速傅里叶变换(Fast Fourier Transform,FFT),得到变化后的音频数据SA2,然后再基于音频数据SA2,通过
Figure BDA0003867691330000142
计算得到对不同频点对应的不同的指向性衰减函数a2
在一种可选的实施例中,在步骤S432中,基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频,包括如下方法步骤:
步骤S4321,基于目标回放设备上每个声道分量对应的权重系数以及每个声道分量对应的音频数据进行加权求和运算,得到多声道空间音频。
在上述可选的实施例中,所进行的加权求和计算可以是线性加权计算。
仍然以在虚拟会议室M1中为与会人C识别音频数据声音来源为例对本发明的上述可选的实施例进行具体说明。
示例性地,在电子商务服务场景下的虚拟会议室M1中,为与会人C识别音频数据声音来源的过程可以包括:计算得到说话人A和说话人B在与会人C的左声道L和右声道R中信号振幅的权重后,分别对左声道L和右声道R中的各个信号进行加权合成,得到与会人C的左声道L回放音频AudioL和右声道R回放音频AudioR
具体地,例如,在虚拟会议室M2中,存在同时发言的N名当前说话人,当前收听人收到的该N名当前说话人的音频数据记为S1,S2,...,SN;该N名当前说话人在当前收听人的左声道L中的信号权重记为WL1,WL2,...,WLN;该N名当前说话人在当前收听人的右声道R中的信号权重记为WR1,WR2,...,WRN。为当前收听人回放虚拟会议室M2的音频时,左声道L的回放音频
Figure BDA0003867691330000151
右声道R的回放音频
Figure BDA0003867691330000152
图7是根据本发明实施例的一种虚拟会议室中音频多声道回放过程的示意图,如图7所示,在虚拟会议室中,通过话筒和网络接收说话人A和说话人B的语音波形和空间坐标;然后基于上述说话人A和说话人B的空间坐标,对说话人A、说话人B和与会人C进行空间还原,得到说话人A对与会人C的权重A(例如可以包括WLA=0.8和WRA=0.2)和说话人B对与会人C的权重B(例如可以包括WLB=0.3和WRB=0.7);进一步地,基于说话人A和说话人B的语音波形、权重A和权重B进行加权合成,得到当前收听人的多声道回放音频;在当前收听人关联的支持多声道的扬声器或耳机中播放多声道回放音频。
容易理解的是,在上述虚拟会议室M1中,说话人A位于与会人C的左侧,因此,说话人A在与会人C的左声道L上具有较高的权重,也就是说WLA>WLB,与会人C在左声道L上主要收听来自说话人A的声音;同理,说话人B位于与会人C的右侧,因此,说话人B在与会人C的右声道R上具有较高的权重,也就是说WRB>WRA,与会人C在右声道R上主要收听来自说话人B的声音。
图8是根据本发明实施例的一种音频数据双声道回放方式的示意图,如图8所示,与会人C在左声道L上主要收听来自说话人A的声音,在右声道R上主要收听来自说话人B的声音。
容易注意到的是,通过本发明实施例提供的上述方法,能够使虚拟会议室M1中的与会人C更容易地分辨出“左侧”的声音(也即,左声道L中主要收听的声音)来自于说话人A,“右侧”的声音(也即,右声道R中主要收听的声音)来自于说话人B,并且,当说话人A和说话人B同时发言时,与会人C也可以通过左右声道的声音区分该说话人A和说话人B的声音,消除了现有技术中虚拟会议室中声音混杂的问题。
容易注意到的是,在传统的线下会议中,当同时存在多个说话人时,会议收听人可以通过双耳效应区分不同来源的声音,并通过大脑将注意力集中在感兴趣的声音来源上(过滤或者忽略其他声音来源)。在本发明实施例中,能够通过虚拟会议室场景中虚拟形象(可以是说话人或者收听人)之间的空间相对关系,增强音频数据的辨识度,也就是说,可以模仿人类的双耳效应,判断音频数据的声音来源于哪位说话人,从而结果虚拟会议室场景下同时存在多个说话人时声音混杂的问题,提升虚拟会议室的与会者的与会体验。
在一种可选的实施例中,识别音频数据声音来源的方法还包括如下方法步骤:
步骤S44,获取音频数据在目标回放设备上不同声道分量之间的相位差,其中,相位差用于辅助判别多个第一虚拟形象中每个第一虚拟形象的方位;
步骤S45,在目标回放设备上每个声道分量对应的时域上插入相位差。
在上述可选的实施例中,由于人的双耳收听位置不同,在将音频数据进行多声道回放时,还可以考虑该音频数据在目标回放设备上不同声道分量之间的相位差,从而提升多声道回放音频的质量,提高用户的收听体验。
仍然以在虚拟会议室M1中为与会人C识别音频数据声音来源为例对本发明的上述可选的实施例进行具体说明。将说话人A与与会人C之间的距离记为dAC,说话人B与与会人C之间的距离记为dBC。由于通常情况下dAC与dBC并不相等,可以在为与会人C回放多声道空间音频数据时,考虑相位差
Figure BDA0003867691330000161
具体地,假设dAC>dBC,根据下述公式(2)计算相位差
Figure BDA0003867691330000162
Figure BDA0003867691330000163
在上述公式(2)中,f表示声音的频率(可以由技术人员预先设定),v表示声音传播的速度(可以由技术人员预先设定)。
在为与会人C回放多声道空间音频数据时,在相位落后通道的音频中加上上述相位差
Figure BDA0003867691330000164
说话人A位于与会人C的左侧,则对说话人A的音频数据SA来说,与会人C的右声道R为相位落后通道,在合成右声道R的回放音频AudioR时,将说话人A的音频数据SA的相位向后偏移
Figure BDA0003867691330000171
同理,说话人B位于与会人C的右侧,则对说话人B的音频数据SB来说,与会人C的左声道L为相位落后通道,在合成左声道L的回放音频BudioL时,将说话人B的音频数据SB的相位向后偏移
Figure BDA0003867691330000172
由此,可以使所合成的多声道回放音频具有更加真实的效果,提升用户的与会体验。
在一种可选的实施例中,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分地包含一虚拟空间场景,识别音频数据声音来源的方法还包括如下方法步骤:
步骤S461,响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至预设虚拟空间;
步骤S462,响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;
步骤S463,通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据的声音来源。
在上述可选的实施例中,图形用户界面内可以显示有一虚拟空间场景。
在上述可选的实施例中,用户可以对图形用户界面进行第一触控操作。用户可以触控该图形用户界面中的“邀请新成员”按钮或加号按钮等,或者在预设的触控区域内执行指定的第一触控手势,以实现如下过程:将多个第一虚拟形象添加至预设虚拟空间,该多个第一虚拟形象为多个与会人(可以是说话人也可以是收听人)在预设虚拟空间中对应的虚拟形象。
在上述可选的实施例中,用户可以对图形用户界面进行第一触控操作。用户可以触控该图形用户界面中的“开启麦克风”按钮或话筒按钮等,或者在预设的触控区域内执行指定的第二触控手势,以实现如下过程:启用第二虚拟形象对应的虚拟扬声器控件。该第二虚拟形象可以是预设虚拟空间中当前身份为说话人的虚拟形象,启用该第二虚拟形象对应的虚拟扬声器控件后,可以将该第二虚拟形象对应的说话人发出的声音广播给预设虚拟空间中的其他与会人。
在响应上述第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件后,可以通过本发明实施例提供的上述识别音频数据声音来源的方法,通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以帮助当前收听人识别音频数据的声音来源。
特别地,上述第一触控操作和上述第二触控操作均可以是用户用手指接触上述终端设备的显示屏并触控该终端设备的操作。该触控操作可以包括单点触控、多点触控,其中,每个触控点的触控操作可以包括点击、长按、重按、划动等。上述第一触控操作和上述第二触控操作还可以是通过鼠标、键盘等输入设备实现的触控操作。
在上述运行环境下,本发明提供了如图9所示的一种识别音频数据声音来源的方法。图9是根据本发明实施例的另一种识别音频数据声音来源的方法的流程图,如图9所示,该识别音频数据声音来源的方法,包括:
步骤S91,接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份;
步骤S92,利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
步骤S93,基于空间位置关系识别音频数据在虚拟会议室内的声音来源。
在本发明实施例中,上述第一虚拟形象可以是虚拟会议室中当前时刻的会议发言者对应的虚拟形象。上述多个第一虚拟形象可以是虚拟会议室中同时存在的多个会议发言者对应的多个虚拟形象。上述多个第一虚拟形象的音频数据可以是虚拟会议室中多个会议发言者发出的音频数据。上述多个第一虚拟形象的第一位置数据可以是该多个第一虚拟对象中每个虚拟对象在虚拟会议室中的空间坐标位置信息
在本发明实施例中,上述第二虚拟形象可以是虚拟会议室中当前时刻的会议收听者对应的虚拟形象。上述第二位置数据可以是上述第二虚拟对象在虚拟会议室中的空间坐标位置信息。
利用上述第一位置数据和上述第二位置数据,可以确定上述空间位置关系。该空间位置关系可以是虚拟会议室中当前时刻的会议收听者对应的虚拟形象(相当于上述第二虚拟形象)与上述多个会议发言者中每个会议发言者对应的虚拟形象(相当于上述第一虚拟形象)之间的相对位置关系(如,包括方位、距离等)。
在本发明实施例中,基于上述空间位置关系,可以识别音频数据的在虚拟会议室内的声音来源。在虚拟会议室中,基于会议收听者对应的虚拟形象与多个会议发言者中每个会议发言者对应的虚拟形象之间的相对位置关系,可以识别音频数据中的哪个声音来源于多个会议发言者中的哪个会议发言者。
容易理解的是,本发明实施例提供的上述方法的重点在于:能够模仿人类双耳效应,在虚拟会议室中实现音频空间来源识别,具体地,可以在虚拟会议室中帮助会议收听者快速识别当前会议发言者。
通过本发明实施例的上述步骤S91至步骤S93,接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的在虚拟会议室内的声音来源。
容易注意到的是,通过本发明实施例,当虚拟会议室内存在多个当前会议发言者时,通过多个当前会议发言者与会议收听者之间的相对位置关系,识别多个当前会议发言者的音频数据的在虚拟会议室内的声音来源,能够在虚拟会议室内模拟人类的双耳效应确定会议发言者的方位,达到了在虚拟会议室内根据多个会议发言者虚拟形象和会议收听者虚拟形象之间的相对位置关系识别多个会议发言者虚拟形象的音频数据的在虚拟会议室内的声音来源的目的,从而实现了在虚拟空间中出现多位会议发言者同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
相关技术提供的传统会议室产品中,通常使用与会人的画面进行布局调整或者高亮显示的方式标识当前说话人。然而,对于虚拟会议室的复杂场景(存在多个说话人同时发言)来说,相关技术中标识当前说话人的方法无法解决声音混杂的问题,使得虚拟会议室中的与会者的与会体验较差。
与相关技术相比,本发明实施例提供的方法能够在预设虚拟空间中模仿人类的双耳效应,并通过多声道回放设备,将预设虚拟空间中当前说话人的位置信息提供给收听人,以便收听人能够更容易地在预设虚拟空间中识别当前说话人。此外,本发明实施例提供的上述方法还能够减轻预设虚拟空间中多来源音频的混杂问题,在同等网络条件下能够提升预设虚拟空间中音频数据的辨识度。总的来说,本发明实施例提供的上述方法可以应用于远程会议、虚拟会议等相关产品中,有利于提升整体的会议音频质量,增强与会人的与会体验(如增加会议沉浸感)。
在一种可选的实施例中,通过终端设备提供一图形用户界面,图形用户界面所显示的内容至少部分地包含一虚拟会议室场景,识别音频数据声音来源的方法还包括如下方法步骤:
步骤S94,响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至虚拟会议室;
步骤S95,响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;
步骤S96,通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据在虚拟会议室内的声音来源。
在上述可选的实施例中,图形用户界面内可以显示有一虚拟会议室场景。
在上述可选的实施例中,用户可以对图形用户界面进行第一触控操作。用户可以触控该图形用户界面中的“邀请新成员”按钮或加号按钮等,或者在预设的触控区域内执行指定的第一触控手势,以实现如下过程:将多个第一虚拟形象添加至虚拟会议室,该多个第一虚拟形象为多个与会人(可以是说话人也可以是收听人)在虚拟会议室中对应的虚拟形象。
在上述可选的实施例中,用户可以对图形用户界面进行第一触控操作。用户可以触控该图形用户界面中的“开启麦克风”按钮或话筒按钮等,或者在预设的触控区域内执行指定的第二触控手势,以实现如下过程:启用第二虚拟形象对应的虚拟扬声器控件。该第二虚拟形象可以是虚拟会议室中当前身份为说话人的虚拟形象,启用该第二虚拟形象对应的虚拟扬声器控件后,可以将该第二虚拟形象对应的说话人发出的声音广播给虚拟会议室中的其他与会人。
在响应上述第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件后,可以通过本发明实施例提供的上述识别音频数据声音来源的方法,通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据在虚拟会议室内的声音来源。
特别地,上述第一触控操作和上述第二触控操作均可以是用户用手指接触上述终端设备的显示屏并触控该终端设备的操作。该触控操作可以包括单点触控、多点触控,其中,每个触控点的触控操作可以包括点击、长按、重按、划动等。上述第一触控操作和上述第二触控操作还可以是通过鼠标、键盘等输入设备实现的触控操作。
在上述运行环境下,本发明提供了如图10所示的一种识别音频数据声音来源的方法。图10是根据本发明实施例的另一种识别音频数据声音来源的方法的流程图,如图10所示,该识别音频数据声音来源的方法,包括:
步骤S1001,接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份;
步骤S1002,利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
步骤S1003,基于空间位置关系识别音频数据在虚拟课堂内的声音来源。
在本发明实施例中,上述第一虚拟形象可以是虚拟课堂中当前时刻的课堂发言者对应的虚拟形象。上述多个第一虚拟形象可以是虚拟课堂中同时存在的多个课堂发言者对应的多个虚拟形象。上述多个第一虚拟形象的音频数据可以是虚拟课堂中多个课堂发言者发出的音频数据。上述多个第一虚拟形象的第一位置数据可以是该多个第一虚拟对象中每个虚拟对象在虚拟课堂中的空间坐标位置信息
在本发明实施例中,上述第二虚拟形象可以是虚拟课堂中当前时刻的课堂收听者对应的虚拟形象。上述第二位置数据可以是上述第二虚拟对象在虚拟课堂中的空间坐标位置信息。
利用上述第一位置数据和上述第二位置数据,可以确定上述空间位置关系。该空间位置关系可以是虚拟课堂中当前时刻的课堂收听者对应的虚拟形象(相当于上述第二虚拟形象)与上述多个课堂发言者中每个课堂发言者对应的虚拟形象(相当于上述第一虚拟形象)之间的相对位置关系(如,包括方位、距离等)。
在本发明实施例中,基于上述空间位置关系,可以识别音频数据的在虚拟课堂内的声音来源。在虚拟课堂中,基于课堂收听者对应的虚拟形象与多个课堂发言者中每个课堂发言者对应的虚拟形象之间的相对位置关系,可以识别音频数据中的哪个声音来源于多个课堂发言者中的哪个课堂发言者。
容易理解的是,本发明实施例提供的上述方法的重点在于:能够模仿人类双耳效应,在虚拟课堂中实现音频空间来源识别,具体地,可以在虚拟课堂中帮助课堂收听者快速识别当前课堂发言者。
通过本发明实施例的上述步骤S1001至步骤S1003,接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的在虚拟课堂内的声音来源。
容易注意到的是,通过本发明实施例,当虚拟课堂内存在多个当前课堂发言者时,通过多个当前课堂发言者与课堂收听者之间的相对位置关系,识别多个当前课堂发言者的音频数据的在虚拟课堂内的声音来源,能够在虚拟课堂内模拟人类的双耳效应确定课堂发言者的方位,达到了在虚拟课堂内根据多个课堂发言者虚拟形象和课堂收听者虚拟形象之间的相对位置关系识别多个课堂发言者虚拟形象的音频数据的在虚拟课堂内的声音来源的目的,从而实现了在虚拟空间中出现多位课堂发言者同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
根据本发明实施例,还提供了一种用于实施上述识别音频数据声音来源的方法的装置实施例,图11是根据本发明实施例的一种识别音频数据声音来源的装置的结构示意图,如图11所示,该装置包括:接收模块1101、确定模块1102和识别模块1103,其中,
接收模块1101,用于接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;
确定模块1102,用于利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
识别模块1103,用于基于空间位置关系识别音频数据的声音来源。
可选地,上述确定模块1102还用于:利用多个第一虚拟形象中每个第一虚拟形象在预设虚拟空间内的第一坐标位置与第二虚拟形象在预设虚拟空间内的第二坐标位置进行差值运算,得到空间位置关系,其中,空间位置关系包括:第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系,第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对距离关系。
可选地,上述识别模块1103还用于:利用空间位置关系确定音频数据在目标回放设备上每个声道分量对应的权重系数,其中,目标回放设备为第二虚拟形象关联的回放设备并且目标回放设备支持多声道的空间音频回放;基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频;通过多声道空间音频识别音频数据的声音来源。
可选地,上述识别模块1103还用于:利用空间位置关系确定目标长度与目标夹角,其中,目标长度为目标回放设备上每个声道分量对应的收听位置与多个第一虚拟形象中每个第一虚拟形象的第一坐标位置形成的目标向量的长度,目标夹角为目标向量对应的方向与目标回放设备上每个声道分量对应的方向之间的夹角;基于目标长度计算得到目标回放设备上每个声道分量对应的第一衰减系数,以及基于目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数,其中,第一衰减系数为距离性衰减系数,第二衰减系数为指向性衰减系数;采用第一衰减系数和第二衰减系数计算得到目标回放设备上每个声道分量对应的权重系数。
可选地,上述识别模块1103还用于:对目标回放设备上每个声道分量对应的音频数据进行快速傅里叶变换,得到变换结果;基于变换结果,采用目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数。
可选地,上述识别模块1103还用于:基于目标回放设备上每个声道分量对应的权重系数以及每个声道分量对应的音频数据进行加权求和运算,得到多声道空间音频。
可选地,图12是根据本发明实施例的一种可选的识别音频数据声音来源的装置的结构示意图,如图12所示,该装置除包括图11所示的所有模块外,还包括:插入模块1104,用于获取音频数据在目标回放设备上不同声道分量之间的相位差,其中,相位差用于辅助判别多个第一虚拟形象中每个第一虚拟形象的方位;在目标回放设备上每个声道分量对应的时域上插入相位差。
可选地,图13是根据本发明实施例的另一种可选的识别音频数据声音来源的装置的结构示意图,如图13所示,该装置除包括图12所示的所有模块外,还包括:显示模块1105,用于:响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至预设虚拟空间;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据的声音来源。
此处需要说明的是,上述接收模块1101、确定模块1102和识别模块1103对应于实施例1中的步骤S41至步骤S43,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例一提供的计算机终端10中。
在本发明实施例中,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的声音来源。
容易注意到的是,通过本发明实施例,当预设虚拟空间内存在多个当前说话人时,通过多个当前说话人与收听人之间的相对位置关系,识别多个当前说话人的音频数据的声音来源,能够在预设虚拟空间内模拟人类的双耳效应确定说话人的方位,达到了在预设虚拟空间内根据多个说话人虚拟形象和收听人虚拟形象之间的相对位置关系识别多个说话人虚拟形象的音频数据的声音来源的目的,从而实现了在虚拟空间中出现多位说话人同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
根据本发明实施例,还提供了一种用于实施上述另一种识别音频数据声音来源的方法的装置实施例,图14是根据本发明实施例的另一种识别音频数据声音来源的装置的结构示意图,如图14所示,该装置包括:接收模块1401、确定模块1402和识别模块1403,其中,
接收模块1401,用于接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份;
确定模块1402,用于利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
识别模块1403,用于基于空间位置关系识别音频数据在虚拟会议室内的声音来源。
可选地,图15是根据本发明实施例的另一种可选的识别音频数据声音来源的装置的结构示意图,如图15所示,该装置除包括图14所示的所有模块外,还包括:显示模块1404,用于响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至虚拟会议室;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据在虚拟会议室内的声音来源。
此处需要说明的是,上述接收模块1401、确定模块1402和识别模块1403对应于实施例1中的步骤S91至步骤S93,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例一提供的计算机终端10中。
在本发明实施例中,接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的在虚拟会议室内的声音来源。
容易注意到的是,通过本发明实施例,当虚拟会议室内存在多个当前会议发言者时,通过多个当前会议发言者与会议收听者之间的相对位置关系,识别多个当前会议发言者的音频数据的在虚拟会议室内的声音来源,能够在虚拟会议室内模拟人类的双耳效应确定会议发言者的方位,达到了在虚拟会议室内根据多个会议发言者虚拟形象和会议收听者虚拟形象之间的相对位置关系识别多个会议发言者虚拟形象的音频数据的在虚拟会议室内的声音来源的目的,从而实现了在虚拟空间中出现多位会议发言者同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
根据本发明实施例,还提供了一种用于实施上述又一种识别音频数据声音来源的方法的装置实施例,图16是根据本发明实施例的又一种识别音频数据声音来源的装置的结构示意图,如图16所示,该装置包括:接收模块1601、确定模块1602和识别模块1603,其中,
接收模块1601,用于接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份;
确定模块1602,用于利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
识别模块1603,用于基于空间位置关系识别音频数据在虚拟课堂内的声音来源。
此处需要说明的是,上述接收模块1601、确定模块1602和识别模块1603对应于实施例1中的步骤S1001至步骤S1003,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例一提供的计算机终端10中。
接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的在虚拟课堂内的声音来源。
容易注意到的是,通过本发明实施例,当虚拟课堂内存在多个当前课堂发言者时,通过多个当前课堂发言者与课堂收听者之间的相对位置关系,识别多个当前课堂发言者的音频数据的在虚拟课堂内的声音来源,能够在虚拟课堂内模拟人类的双耳效应确定课堂发言者的方位,达到了在虚拟课堂内根据多个课堂发言者虚拟形象和课堂收听者虚拟形象之间的相对位置关系识别多个课堂发言者虚拟形象的音频数据的在虚拟课堂内的声音来源的目的,从而实现了在虚拟空间中出现多位课堂发言者同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
需要说明的是,本实施例的优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
实施例3
根据本发明实施例,还提供了一种电子设备的实施例,该电子设备可以是计算设备群中的任意一个计算设备。该电子设备包括:处理器和存储器,其中:
存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
在本发明实施例中,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的声音来源。
容易注意到的是,通过本发明实施例,当预设虚拟空间内存在多个当前说话人时,通过多个当前说话人与收听人之间的相对位置关系,识别多个当前说话人的音频数据的声音来源,能够在预设虚拟空间内模拟人类的双耳效应确定说话人的方位,达到了在预设虚拟空间内根据多个说话人虚拟形象和收听人虚拟形象之间的相对位置关系识别多个说话人虚拟形象的音频数据的声音来源的目的,从而实现了在虚拟空间中出现多位说话人同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
需要说明的是,本实施例的优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
实施例4
本发明的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行识别音频数据声音来源的方法中以下步骤的程序代码:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
可选地,图17是根据本发明实施例的另一种计算机终端的结构框图,如图17所示,该计算机终端可以包括:一个或多个(图中仅示出一个)处理器122、存储器124、以及外设接口126。
其中,存储器可用于存储软件程序以及模块,如本发明实施例中的识别音频数据声音来源的方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的识别音频数据声音来源的方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
可选地,上述处理器还可以执行如下步骤的程序代码:利用多个第一虚拟形象中每个第一虚拟形象在预设虚拟空间内的第一坐标位置与第二虚拟形象在预设虚拟空间内的第二坐标位置进行差值运算,得到空间位置关系,其中,空间位置关系包括:第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系,第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对距离关系。
可选地,上述处理器还可以执行如下步骤的程序代码:利用空间位置关系确定音频数据在目标回放设备上每个声道分量对应的权重系数,其中,目标回放设备为第二虚拟形象关联的回放设备并且目标回放设备支持多声道的空间音频回放;基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频;通过多声道空间音频识别音频数据的声音来源。
可选地,上述处理器还可以执行如下步骤的程序代码:利用空间位置关系确定目标长度与目标夹角,其中,目标长度为目标回放设备上每个声道分量对应的收听位置与多个第一虚拟形象中每个第一虚拟形象的第一坐标位置形成的目标向量的长度,目标夹角为目标向量对应的方向与目标回放设备上每个声道分量对应的方向之间的夹角;基于目标长度计算得到目标回放设备上每个声道分量对应的第一衰减系数,以及基于目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数,其中,第一衰减系数为距离性衰减系数,第二衰减系数为指向性衰减系数;采用第一衰减系数和第二衰减系数计算得到目标回放设备上每个声道分量对应的权重系数。
可选地,上述处理器还可以执行如下步骤的程序代码:对目标回放设备上每个声道分量对应的音频数据进行快速傅里叶变换,得到变换结果;基于变换结果,采用目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数。
可选地,上述处理器还可以执行如下步骤的程序代码:基于目标回放设备上每个声道分量对应的权重系数以及每个声道分量对应的音频数据进行加权求和运算,得到多声道空间音频。
可选地,上述处理器还可以执行如下步骤的程序代码:获取音频数据在目标回放设备上不同声道分量之间的相位差,其中,相位差用于辅助判别多个第一虚拟形象中每个第一虚拟形象的方位;在目标回放设备上每个声道分量对应的时域上插入相位差。
可选地,上述处理器还可以执行如下步骤的程序代码:响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至预设虚拟空间;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据的声音来源。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟会议室内的声音来源。
可选地,上述处理器还可以执行如下步骤的程序代码:响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至虚拟会议室;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据在虚拟会议室内的声音来源。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟课堂内的声音来源。
在本发明实施例中,接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份,通过利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系,进一步基于空间位置关系识别音频数据的声音来源。
容易注意到的是,通过本发明实施例,当预设虚拟空间内存在多个当前说话人时,通过多个当前说话人与收听人之间的相对位置关系,识别多个当前说话人的音频数据的声音来源,能够在预设虚拟空间内模拟人类的双耳效应确定说话人的方位,达到了在预设虚拟空间内根据多个说话人虚拟形象和收听人虚拟形象之间的相对位置关系识别多个说话人虚拟形象的音频数据的声音来源的目的,从而实现了在虚拟空间中出现多位说话人同时发言的情况下增强音频数据的辨识度、提高用户体验的技术效果,进而解决了虚拟空间中出现多位说话人同时发言的情况下音源混杂、用户体验差的技术问题。
本领域普通技术人员可以理解,图17所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等终端设备。图17其并不对上述电子装置的结构造成限定。例如,计算机终端还可包括比图17中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图17所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
根据本发明实施例,还提供了一种计算机可读存储介质的实施例。可选地,在本实施例中,上述计算机可读存储介质可以用于保存上述实施例1所提供的识别音频数据声音来源的方法所执行的程序代码。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为说话人身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为收听人身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:利用多个第一虚拟形象中每个第一虚拟形象在预设虚拟空间内的第一坐标位置与第二虚拟形象在预设虚拟空间内的第二坐标位置进行差值运算,得到空间位置关系,其中,空间位置关系包括:第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系,第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对距离关系。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:利用空间位置关系确定音频数据在目标回放设备上每个声道分量对应的权重系数,其中,目标回放设备为第二虚拟形象关联的回放设备并且目标回放设备支持多声道的空间音频回放;基于目标回放设备上每个声道分量对应的权重系数合成多声道空间音频;通过多声道空间音频识别音频数据的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:利用空间位置关系确定目标长度与目标夹角,其中,目标长度为目标回放设备上每个声道分量对应的收听位置与多个第一虚拟形象中每个第一虚拟形象的第一坐标位置形成的目标向量的长度,目标夹角为目标向量对应的方向与目标回放设备上每个声道分量对应的方向之间的夹角;基于目标长度计算得到目标回放设备上每个声道分量对应的第一衰减系数,以及基于目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数,其中,第一衰减系数为距离性衰减系数,第二衰减系数为指向性衰减系数;采用第一衰减系数和第二衰减系数计算得到目标回放设备上每个声道分量对应的权重系数。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:对目标回放设备上每个声道分量对应的音频数据进行快速傅里叶变换,得到变换结果;基于变换结果,采用目标夹角计算得到目标回放设备上每个声道分量对应的第二衰减系数。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:基于目标回放设备上每个声道分量对应的权重系数以及每个声道分量对应的音频数据进行加权求和运算,得到多声道空间音频。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:获取音频数据在目标回放设备上不同声道分量之间的相位差,其中,相位差用于辅助判别多个第一虚拟形象中每个第一虚拟形象的方位;在目标回放设备上每个声道分量对应的时域上插入相位差。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至预设虚拟空间;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为会议发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为会议收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟会议室内的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:响应作用于图形用户界面的第一触控操作,将多个第一虚拟形象添加至虚拟会议室;响应作用于图形用户界面的第二触控操作,启用第二虚拟形象对应的虚拟扬声器控件;通过虚拟扬声器控件对应的目标回放设备对多个第一虚拟形象的音频数据进行空间音频回放,以识别音频数据在虚拟会议室内的声音来源。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,多个第一虚拟形象的当前身份为课堂发言者身份;利用第一位置数据和第二位置数据确定空间位置关系,其中,第二位置数据为第二虚拟形象的位置数据,第二虚拟形象的当前身份为课堂收听者身份,空间位置关系用于确定第二虚拟形象与多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;基于空间位置关系识别音频数据在虚拟课堂内的声音来源。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本发明所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (13)

1.一种识别音频数据声音来源的方法,其特征在于,包括:
接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,所述多个第一虚拟形象的当前身份为说话人身份;
利用所述第一位置数据和第二位置数据确定空间位置关系,其中,所述第二位置数据为第二虚拟形象的位置数据,所述第二虚拟形象的当前身份为收听人身份,所述空间位置关系用于确定所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
基于所述空间位置关系识别所述音频数据的声音来源。
2.根据权利要求1所述的方法,其特征在于,利用所述第一位置数据和所述第二位置数据确定所述空间位置关系包括:
利用所述多个第一虚拟形象中每个第一虚拟形象在所述预设虚拟空间内的第一坐标位置与所述第二虚拟形象在所述预设虚拟空间内的第二坐标位置进行差值运算,得到所述空间位置关系,其中,所述空间位置关系包括:所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对方位关系,所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对距离关系。
3.根据权利要求1所述的方法,其特征在于,基于所述空间位置关系识别所述音频数据的声音来源包括:
利用所述空间位置关系确定所述音频数据在目标回放设备上每个声道分量对应的权重系数,其中,所述目标回放设备为所述第二虚拟形象关联的回放设备并且所述目标回放设备支持多声道的空间音频回放;
基于所述目标回放设备上每个声道分量对应的权重系数合成多声道空间音频;
通过所述多声道空间音频识别所述音频数据的声音来源。
4.根据权利要求3所述的方法,其特征在于,利用所述空间位置关系确定所述音频数据在所述目标回放设备上每个声道分量对应的权重系数包括:
利用所述空间位置关系确定目标长度与目标夹角,其中,所述目标长度为所述目标回放设备上每个声道分量对应的收听位置与所述多个第一虚拟形象中每个第一虚拟形象的第一坐标位置形成的目标向量的长度,所述目标夹角为所述目标向量对应的方向与所述目标回放设备上每个声道分量对应的方向之间的夹角;
基于所述目标长度计算得到所述目标回放设备上每个声道分量对应的第一衰减系数,以及基于所述目标夹角计算得到所述目标回放设备上每个声道分量对应的第二衰减系数,其中,所述第一衰减系数为距离性衰减系数,所述第二衰减系数为指向性衰减系数;
采用所述第一衰减系数和所述第二衰减系数计算得到所述目标回放设备上每个声道分量对应的权重系数。
5.根据权利要求4所述的方法,其特征在于,基于所述目标夹角计算得到所述目标回放设备上每个声道分量对应的所述第二衰减系数包括:
对所述目标回放设备上每个声道分量对应的所述音频数据进行快速傅里叶变换,得到变换结果;
基于所述变换结果,采用所述目标夹角计算得到所述目标回放设备上每个声道分量对应的所述第二衰减系数。
6.根据权利要求4所述的方法,其特征在于,基于所述目标回放设备上每个声道分量对应的权重系数合成所述多声道空间音频包括:
基于所述目标回放设备上每个声道分量对应的权重系数以及每个声道分量对应的所述音频数据进行加权求和运算,得到所述多声道空间音频。
7.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取所述音频数据在目标回放设备上不同声道分量之间的相位差,其中,所述相位差用于辅助判别所述多个第一虚拟形象中每个第一虚拟形象的方位;
在所述目标回放设备上每个声道分量对应的时域上插入所述相位差。
8.根据权利要求1所述的方法,其特征在于,通过终端设备提供一图形用户界面,所述图形用户界面所显示的内容至少部分地包含一虚拟空间场景,所述方法还包括:
响应作用于所述图形用户界面的第一触控操作,将所述多个第一虚拟形象添加至所述预设虚拟空间;
响应作用于所述图形用户界面的第二触控操作,启用所述第二虚拟形象对应的虚拟扬声器控件;
通过所述虚拟扬声器控件对应的目标回放设备对所述多个第一虚拟形象的所述音频数据进行空间音频回放,以识别所述音频数据的声音来源。
9.一种识别音频数据声音来源的方法,其特征在于,包括:
接收来自于虚拟会议室内多个第一虚拟形象的音频数据和第一位置数据,其中,所述多个第一虚拟形象的当前身份为会议发言者身份;
利用所述第一位置数据和第二位置数据确定空间位置关系,其中,所述第二位置数据为第二虚拟形象的位置数据,所述第二虚拟形象的当前身份为会议收听者身份,所述空间位置关系用于确定所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
基于所述空间位置关系识别所述音频数据在虚拟会议室内的声音来源。
10.根据权利要求9所述的方法,其特征在于,通过终端设备提供一图形用户界面,所述图形用户界面所显示的内容至少部分地包含一虚拟会议室场景,所述方法还包括:
响应作用于所述图形用户界面的第一触控操作,将所述多个第一虚拟形象添加至所述虚拟会议室;
响应作用于所述图形用户界面的第二触控操作,启用所述第二虚拟形象对应的虚拟扬声器控件;
通过所述虚拟扬声器控件对应的目标回放设备对所述多个第一虚拟形象的所述音频数据进行空间音频回放,以识别所述音频数据在虚拟会议室内的声音来源。
11.一种识别音频数据声音来源的方法,其特征在于,包括:
接收来自于虚拟课堂内多个第一虚拟形象的音频数据和第一位置数据,其中,所述多个第一虚拟形象的当前身份为课堂发言者身份;
利用所述第一位置数据和第二位置数据确定空间位置关系,其中,所述第二位置数据为第二虚拟形象的位置数据,所述第二虚拟形象的当前身份为课堂收听者身份,所述空间位置关系用于确定所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
基于所述空间位置关系识别所述音频数据在虚拟课堂内的声音来源。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的程序,其中,在所述程序运行时控制所述计算机可读存储介质所在设备执行权利要求1至11中任意一项所述的识别音频数据声音来源的方法。
13.一种电子设备,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
接收来自于预设虚拟空间内多个第一虚拟形象的音频数据和第一位置数据,其中,所述多个第一虚拟形象的当前身份为说话人身份;
利用所述第一位置数据和第二位置数据确定空间位置关系,其中,所述第二位置数据为第二虚拟形象的位置数据,所述第二虚拟形象的当前身份为收听人身份,所述空间位置关系用于确定所述第二虚拟形象与所述多个第一虚拟形象中每个第一虚拟形象之间的相对位置关系;
基于所述空间位置关系识别所述音频数据的声音来源。
CN202211183456.7A 2022-09-27 2022-09-27 识别音频数据声音来源的方法、存储介质和电子设备 Pending CN115550600A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211183456.7A CN115550600A (zh) 2022-09-27 2022-09-27 识别音频数据声音来源的方法、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211183456.7A CN115550600A (zh) 2022-09-27 2022-09-27 识别音频数据声音来源的方法、存储介质和电子设备

Publications (1)

Publication Number Publication Date
CN115550600A true CN115550600A (zh) 2022-12-30

Family

ID=84730324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211183456.7A Pending CN115550600A (zh) 2022-09-27 2022-09-27 识别音频数据声音来源的方法、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN115550600A (zh)

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1703065A (zh) * 2004-05-26 2005-11-30 株式会社日立制作所 语音通信系统
CN1719852A (zh) * 2004-07-09 2006-01-11 株式会社日立制作所 信息源选择系统和方法
KR20060081966A (ko) * 2005-01-11 2006-07-14 엘지전자 주식회사 원격회의를 위한 음상 정위 시스템
US7113610B1 (en) * 2002-09-10 2006-09-26 Microsoft Corporation Virtual sound source positioning
CN101118746A (zh) * 2007-09-17 2008-02-06 腾讯科技(深圳)有限公司 基于双声道音频数据标定的方法及多人语音通话系统
US7346654B1 (en) * 1999-04-16 2008-03-18 Mitel Networks Corporation Virtual meeting rooms with spatial audio
US20100316232A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Spatial Audio for Audio Conferencing
US20130208899A1 (en) * 2010-10-13 2013-08-15 Microsoft Corporation Skeletal modeling for positioning virtual object sounds
CN103329571A (zh) * 2011-01-04 2013-09-25 Dts有限责任公司 沉浸式音频呈现系统
US8627213B1 (en) * 2004-08-10 2014-01-07 Hewlett-Packard Development Company, L.P. Chat room system to provide binaural sound at a user location
CN105493181A (zh) * 2013-08-30 2016-04-13 格莱姆会议有限责任公司 多维虚拟学习系统和方法
US10206055B1 (en) * 2017-12-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for generating spatialized audio during a virtual experience
CN109791436A (zh) * 2016-08-26 2019-05-21 诺基亚技术有限公司 内容发现
CN110035250A (zh) * 2019-03-29 2019-07-19 维沃移动通信有限公司 音频处理方法、处理设备、终端及计算机可读存储介质
CN110915240A (zh) * 2017-06-26 2020-03-24 雷.拉蒂波夫 向用户提供交互式音乐创作的方法
CN111466124A (zh) * 2017-12-19 2020-07-28 皇家Kpn公司 增强的视听多用户通信
CN112261337A (zh) * 2020-09-29 2021-01-22 上海连尚网络科技有限公司 一种在多人语音中播放语音信息的方法与设备
US20210195361A1 (en) * 2019-12-23 2021-06-24 Sennheiser Electronic Gmbh & Co. Kg Method and device for audio signal processing for binaural virtualization
CN113559512A (zh) * 2021-08-04 2021-10-29 网易(杭州)网络有限公司 声源音效的处理方法、装置、计算机设备以及存储介质
CN114035764A (zh) * 2021-11-05 2022-02-11 郑州捷安高科股份有限公司 一种三维声效的模拟方法、装置、设备及存储介质
CN114333892A (zh) * 2021-10-22 2022-04-12 腾讯科技(深圳)有限公司 一种语音处理方法、装置、电子设备和可读介质
JP2022065363A (ja) * 2020-10-15 2022-04-27 スペースラボ株式会社 仮想空間におけるコミュニケーションシステム用サーバ装置及び仮想空間におけるコミュニケーションシステム用クライアント装置
CN114531640A (zh) * 2018-12-29 2022-05-24 华为技术有限公司 一种音频信号处理方法及装置
WO2022108470A1 (en) * 2020-11-18 2022-05-27 "Stc-Innovations Limited" Method for locating a speaker using a conference system

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346654B1 (en) * 1999-04-16 2008-03-18 Mitel Networks Corporation Virtual meeting rooms with spatial audio
US7113610B1 (en) * 2002-09-10 2006-09-26 Microsoft Corporation Virtual sound source positioning
CN1703065A (zh) * 2004-05-26 2005-11-30 株式会社日立制作所 语音通信系统
CN1719852A (zh) * 2004-07-09 2006-01-11 株式会社日立制作所 信息源选择系统和方法
US8627213B1 (en) * 2004-08-10 2014-01-07 Hewlett-Packard Development Company, L.P. Chat room system to provide binaural sound at a user location
KR20060081966A (ko) * 2005-01-11 2006-07-14 엘지전자 주식회사 원격회의를 위한 음상 정위 시스템
CN101118746A (zh) * 2007-09-17 2008-02-06 腾讯科技(深圳)有限公司 基于双声道音频数据标定的方法及多人语音通话系统
US20100316232A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Spatial Audio for Audio Conferencing
US20130208899A1 (en) * 2010-10-13 2013-08-15 Microsoft Corporation Skeletal modeling for positioning virtual object sounds
CN103329571A (zh) * 2011-01-04 2013-09-25 Dts有限责任公司 沉浸式音频呈现系统
CN105493181A (zh) * 2013-08-30 2016-04-13 格莱姆会议有限责任公司 多维虚拟学习系统和方法
CN109791436A (zh) * 2016-08-26 2019-05-21 诺基亚技术有限公司 内容发现
CN110915240A (zh) * 2017-06-26 2020-03-24 雷.拉蒂波夫 向用户提供交互式音乐创作的方法
CN111466124A (zh) * 2017-12-19 2020-07-28 皇家Kpn公司 增强的视听多用户通信
US10206055B1 (en) * 2017-12-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for generating spatialized audio during a virtual experience
CN114531640A (zh) * 2018-12-29 2022-05-24 华为技术有限公司 一种音频信号处理方法及装置
CN110035250A (zh) * 2019-03-29 2019-07-19 维沃移动通信有限公司 音频处理方法、处理设备、终端及计算机可读存储介质
US20210195361A1 (en) * 2019-12-23 2021-06-24 Sennheiser Electronic Gmbh & Co. Kg Method and device for audio signal processing for binaural virtualization
CN112261337A (zh) * 2020-09-29 2021-01-22 上海连尚网络科技有限公司 一种在多人语音中播放语音信息的方法与设备
JP2022065363A (ja) * 2020-10-15 2022-04-27 スペースラボ株式会社 仮想空間におけるコミュニケーションシステム用サーバ装置及び仮想空間におけるコミュニケーションシステム用クライアント装置
WO2022108470A1 (en) * 2020-11-18 2022-05-27 "Stc-Innovations Limited" Method for locating a speaker using a conference system
CN113559512A (zh) * 2021-08-04 2021-10-29 网易(杭州)网络有限公司 声源音效的处理方法、装置、计算机设备以及存储介质
CN114333892A (zh) * 2021-10-22 2022-04-12 腾讯科技(深圳)有限公司 一种语音处理方法、装置、电子设备和可读介质
CN114035764A (zh) * 2021-11-05 2022-02-11 郑州捷安高科股份有限公司 一种三维声效的模拟方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贺宝权, 孙立峰, 张茂军, 孙雷: "虚拟空间会议系统中音频合成技术的研究与实现", 小型微型计算机系统, 30 June 2000 (2000-06-30), pages 573 - 576 *

Similar Documents

Publication Publication Date Title
US9693170B2 (en) Multidimensional virtual learning system and method
US10798518B2 (en) Apparatus and associated methods
US11109177B2 (en) Methods and systems for simulating acoustics of an extended reality world
Hyder et al. Placing the participants of a spatial audio conference call
US11223920B2 (en) Methods and systems for extended reality audio processing for near-field and far-field audio reproduction
US8085920B1 (en) Synthetic audio placement
US11589184B1 (en) Differential spatial rendering of audio sources
JP2022083443A (ja) オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
US20230370801A1 (en) Information processing device, information processing terminal, information processing method, and program
CN115550600A (zh) 识别音频数据声音来源的方法、存储介质和电子设备
Cohen et al. Spatial soundscape superposition and multimodal interaction
WO2022161446A1 (zh) 控制方法、装置和电子设备
JP7472091B2 (ja) オンライン通話管理装置及びオンライン通話管理プログラム
CN114520950A (zh) 音频输出方法、装置、电子设备及可读存储介质
Ranaweera et al. Narrowcasting and multipresence for music auditioning and conferencing in social cyberworlds
Kim et al. Virtual Ceiling Speaker: Elevating auditory imagery in a 5-channel reproduction
Aguilera et al. Spatial audio for audioconferencing in mobile devices: Investigating the importance of virtual mobility and private communication and optimizations
Wuolio et al. On the potential of spatial audio in enhancing virtual user experiences
WO2022054603A1 (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
Digenis Challenges of the headphone mix in games
CN115766950A (zh) 语音会议创建方法、语音会议方法、装置、设备及介质
Baxter Convergence the Experiences
Billinghurst et al. Motion-tracking in spatial mobile audio-conferencing
Staff Audio for Mobile and Handheld Devices
JP2005331826A (ja) 学習システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination