CN116421971A - 空间音频信号的生成方法及装置、存储介质、电子设备 - Google Patents
空间音频信号的生成方法及装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN116421971A CN116421971A CN202310390918.0A CN202310390918A CN116421971A CN 116421971 A CN116421971 A CN 116421971A CN 202310390918 A CN202310390918 A CN 202310390918A CN 116421971 A CN116421971 A CN 116421971A
- Authority
- CN
- China
- Prior art keywords
- audio signal
- coordinate
- target
- original
- spatial audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 187
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000013507 mapping Methods 0.000 claims description 128
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 9
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 239000003999 initiator Substances 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 15
- 230000008569 process Effects 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6081—Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Stereophonic System (AREA)
Abstract
本公开是关于空间音频信号的生成方法及装置、存储介质、电子设备,涉及音频信号处理技术领域,该方法包括:获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。该方法解决了现有技术中无法确定音频信息的发出位置的问题。
Description
技术领域
本公开实施例涉及音频信号处理技术领域,具体而言,涉及一种空间音频信号的生成方法、空间音频信号的生成装置、计算机可读存储介质以及电子设备。
背景技术
在一些虚拟网络世界的应用场景下,用户在接收到游戏场景中的虚拟对象发出的音频信息时,是直接将该音频信息传输至用户的麦克风中的,并没有3D音效参与。
但是,由于没有3D音效的参与,进而导致用户无法确定该音频信息的发出位置。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种空间音频信号的生成方法、空间音频信号的生成装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的无法确定音频信息的发出位置的问题。
根据本公开的一个方面,提供一种空间音频信号的生成方法,包括:
获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
根据本公开的一个方面,提供一种空间音频信号的生成装置,包括:
场景坐标获取模块,用于获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
空间音频方位确定模块,用于根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
目标滤波器系数确定模块,用于根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
空间音频信号生成模块,用于根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的空间音频信号的生成方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的空间音频信号的生成方法。
本公开实施例提供的一种空间音频信号的生成方法,一方面,通过获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;进而根据第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;然后根据空间音频方位确定原始音频信号的目标滤波器系数;最后根据目标滤波器系数以及原始音频信号,生成空间音频信号,进而可以根据该空间音频信号确定原始音频信号的发出位置,解决了现有技术中无法确定音频信息的发出位置的问题;另一方面,由于可以根据目标滤波器系数以及原始音频信号,生成空间音频信号,进而使得用户可以根据该空间音频信号确定第一虚拟对象的准确位置,达到模拟真实环境的目的,从而进一步的提升用户的游戏体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出根据本公开示例实施例的一种空间音频信号的生成方法的流程图。
图2示意性示出根据本公开示例实施例的一种空间音频信号的生成方法的应用场景示例图。
图3示意性示出根据本公开示例实施例的一种根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位的方法流程图。
图4示意性示出根据本公开示例实施例的一种虚拟麦克风阵列的位置示例图。
图5示意性示出根据本公开示例实施例的一种预设的虚拟麦克风阵列模型的示例图。
图6示意性示出根据本公开示例实施例的一种将音频空间方位映射到目标三角形平面的场景示例图。
图7示意性示出根据本公开示例实施例的一种空间音频信号的生成装置的框图。
图8示意性示出根据本公开示例实施例的一种用于实现上述空间音频信号的生成方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
杜比立体声技术使得人们可以在声音体验的领域迈入全新的多声道环绕时代;其中,环绕声为声音的呈现提供了多声道;同时,由于声道多且不同声道布局位置不同,从而使得进入人耳的声音有纵深感,进而可以达到表达出更具空间感、更加细腻真实的声音的目的。
在一些关于杜比全景声的实现方案中,其可以通过将前置、侧置、后置和天空扬声器加上复杂的音频处理和算法相结合,提供高达64声道的环绕声,进一步增加了声音的空间沉浸感;同时,这也预示了空间音频即将崭露头角;同时,基于杜比全景声诞生了3D空间音频;其中,该3D空间音频其实是一种虚拟的“计算音频”,其可以在杜比全景声的基础上进行算法优化,在技术上大大超越立体声、环绕声,给用户带来更沉浸、更具空间感的三维音频内容体验,让用户犹如“声”临其境。
在实际应用的过程中,3D空间音频通过纯软件算法方案,模拟头部球面区域立体声场,使用户在音频听感上具有空间感;例如,当用户操作虚拟人物在虚拟场景里移动,可实现根据虚拟人物的面部朝向、音源朝向、远近距离与上下高度,呈现不同声音效果,完美模拟现实听觉感受。但是,在现有的游戏场景中,如果游戏场景中的虚拟对象(例如游戏中的大Boss)迈着一双大脚走在楼上时,由于没有3D音效的参与进而导致用户无法听到从上方或者下方传来的声音;也即,用户无法感受到3D音效进而缺乏立体音频的概念。基于此,需要通过相应的算法对没有方向感的音频进行计算,可以使得音频产生立体的空间感和方向感,进而使得用户可以置身于音效空间中,从而达到提升用户体验的目的。
基于此,本示例实施方式中首先提供了一种空间音频信号的生成方法,该方法可以运行于终端设备;当然,本领域技术人员也可以根据需求在其他平台运行本公开的方法,本示例性实施例中对此不做特殊限定。具体的,参考图1所示,该空间音频信号的生成方法可以包括以下步骤:
步骤S110.获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
步骤S120.根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
步骤S130.根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
步骤S140.根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
上述空间音频信号的生成方法中,一方面,通过获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;进而根据第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;然后根据空间音频方位确定原始音频信号的目标滤波器系数;最后根据目标滤波器系数以及原始音频信号,生成空间音频信号,进而可以根据该空间音频信号确定原始音频信号的发出位置,解决了现有技术中无法确定音频信息的发出位置的问题;另一方面,由于可以根据目标滤波器系数以及原始音频信号,生成空间音频信号,进而使得用户可以根据该空间音频信号确定第一虚拟对象的准确位置,达到模拟真实环境的目的,从而进一步的提升用户的游戏体验。
以下,将结合附图对本公开示例实施例空间音频信号的生成方法进行详细的解释以及说明。
首先,对本公开示例实施例中所涉及到的应用原理进行解释:
人耳对于声音方位判断的逻辑的实现原理:一方面,判断声源与当前玩家角色(可以对应本公开示例实施例中所记载的第二虚拟对象)的垂直方位,可以通过如下方式实现:首先,由于耳廓具有较为“崎岖”的不规则的形状,其各部位会对声波进行一定的反射,反射后的声波被耳道接收后与直达声波有一定的相位差;因此,反射波和直达波会在耳道处发生干涉后会产生特殊的听觉效果,该效应可以被称为耳廓效应;同时,再配合人头转动因素,可以达到判断声源垂直方位的目的;另一方面,判断声源与当前玩家角色的水平方位,可以通过如下方式实现:首先,对于低频的声音来说,可通过双耳时间差的方式实现;对于高频的声音来说,可以通过声级差的方式实现;进一步的,通过耳间时间差(ITD,Interaural Time Difference)和耳间声级差(ILD,Interaural Level Difference)即可达到判断声源水平方位的目的。
HRTF,Head Related Transfer Function,头相关传递函数,其是一个声学模型;在实际应用的过程中,头相关传递函数是一个基于空间参数、声音频率、人体学参数的函数;其中,空间参数所参考的坐标系可以是相对于听者人头中心的球形坐标系;同时,由于人耳对所能感受到的音频范围的限制,具体的声音频率的具体取值范围可以包括0KHz-20KHz;进一步的,人体学参数可以包括会反射、衍射声波的头、躯干、耳廓等的尺寸;理论而言,头相关传递函数是一个线性是不变系统,若是得到某个人的全空间HRTF数据库,则可以完美的渲染出任何位置听者想要听见的空间位置的声音,与现实听感无异。
HRIR,Head Related Impulse Response,其是与HRTF对应的时域响应函数,具体所涉及到的参数与头相关传递函数一致,此处不再进行进一步的赘述。在实际应用的过程中,当需要渲染出声音的空间效果时,可通过两种方式实现:一种是,将某一空间位置时域HRIR与单声道信号卷积得到空间音频信号;另一种是,将单声道信号经过傅立叶变换后与HRTF乘积得到空间音频信号。
其次,对本公开示例实施例所记载的空间音频信号的生成方法的应用场景进行解释以及说明。具体的,本公开示例实施例所记载的终端设备,可以包括图2中所示的201、202以及203中的一个或多个;也即,此处所记载的终端设备,可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等,且该终端设备中可以安装并运行游戏程序;在一种可能的示例实施例中,本公开示例实施例所记载的空间音频信号的生成方法也可以运行于服务器;其中,当其运行于服务器时,该方法可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,空间音频信号的生成方法的储存与运行是在云游戏服务器上完成的,客户端设备用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
在一可选的实施方式中,以游戏为例,本地终端设备存储有游戏程序并用于呈现游戏画面。本地终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过终端设备下载安装游戏程序并运行。该本地终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,本地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
需要说明的是,本公开的示例性实施例中所涉及到的游戏场景,可以是计算机、手机、平板电脑等智能终端设备通过数字化技术渲染得到的数字化场景。该游戏场景可以包括房屋、楼宇、园林、桥梁、水池等建筑物或构筑物,还可以包括山地、河流、湖泊等自然景观,其中,位于该虚拟场景中的对象可以包括虚拟武器、虚拟工具、生物等任意的虚拟物品或虚拟对象。游戏场景可以是对真实世界的仿真场景、可以是纯虚构的虚拟场景或部分仿真部分虚构的虚拟场景,本示例性实施例对此不做特殊限定。
进一步的,在本公开示例实施例所提供的一种空间音频信号的生成方法中:
在步骤S110中,获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标。
具体的,此处所记载的第一虚拟对象,可以为原始音频信号的发起者;该第二虚拟对象,可以是原始音频信号的接收者;也即,在实际应用的过程中,该第一虚拟对象可以包括当前游戏场景中除开当前玩家角色以外的任一虚拟对象,例如,可以是其他玩家角色、NPC等等;与之相对应的,此处所记载的第二虚拟对象,即可被认为是当前玩家角色。进一步的,再具体的应用过程中,在检测到除开当前玩家角色以外的其他任一虚拟对象发出音频信号时,即可获取发出该音频信号的第一虚拟对象所在的第一场景坐标,以及当前玩家角色所在的第二场景坐标;其中,此处所记载的第一场景位置以及第二场景位置,可以根据该当前游戏场景在游戏地图中所处的位置进行确定。
在步骤S120中,根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位。
在本示例实施例中,参考图3所示,根据第一场景坐标以及第二场景坐标确定原始音频信号的空间音频方位,可以包括以下步骤:
步骤S310,计算所述第一场景坐标与第二场景坐标之间的坐标差值,并对所述坐标差值进行坐标映射,得到第一坐标映射结果。
在本示例实施例中,首先,计算第一场景坐标与第二场景坐标之间的坐标差值;例如,假设第一场景坐标为(x1,y1,z1),第二场景坐标为(x2,y2,z2),则第一场景坐标与第二场景坐标之间的坐标差值即为(x1-x2,y1-y2,z1-z2);同时,另x3=x1-x2,y3=y1-y2,z3=z1-z2,则第一场景坐标与第二场景坐标之间的坐标差值可以记为(x3,y3,z3)。其次,对所述坐标差值进行坐标映射,得到第一坐标映射结果。具体的,可以通过如下方式实现:将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果;或者将所述坐标差值映射至第二场景坐标所在的第二坐标空间,得到第一坐标映射结果;其中,所述第一坐标空间以及第二坐标空间处于同一坐标系。也即,在实际应用的过程中,由于第一坐标空间以及第二坐标空间处于同一坐标系(此处的同一坐标系也可以被理解为同一坐标空间),因此在对坐标差值映射的过程中,既可以映射到第一坐标空间,也可以映射到第二坐标空间,其所得到的第一坐标映射结果是一致的。
其中,以将坐标差值映射到第一坐标空间为例,对第一坐标映射结果的具体生成过程进行解释以及说明。具体的,将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果,可以通过如下方式实现:首先,将所述坐标差值中包括的第一X轴坐标值以及第一Y轴坐标值映射至所述第一场景坐标所在的第一坐标空间中的第一XY平面,得到第一X轴映射值以及第一Y轴映射值;然后,将所述坐标差值中包括的第一Z轴坐标值映射值所述第一坐标空间中的第一Z平面,得到第一Z轴映射值,并根据所述第一X轴映射值、第一Y轴映射值以及第一Z轴映射值得到第一坐标映射结果。
步骤S320,根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果。
在本示例实施例中,根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果,可以通过如下方式实现:首先,获取所述第二虚拟对象在游戏场景中的位置朝向坐标,并根据所述位置朝向坐标的矢量,确定目标坐标系的X轴方向;然后,基于所述X轴方向构建目标坐标系,并将所述第一坐标映射结果中包括的第一X轴映射值以及第一Y轴映射值映射至所述目标坐标系中的第二XY平面,得到第二X轴映射值以及第二Y轴映射值;最后,将所述第一坐标映射结果中包括的第一Z轴映射值映射至目标坐标系中的第二Z平面,得到第二Z轴映射值,并根据所述第二X轴映射值、第二Y轴映射值以及第二Z轴映射值得到第二坐标映射结果。也即,在得到第一坐标映射结果以后,可以计算第二虚拟对象的位置朝向坐标的矢量,然后以该矢量指向第二虚拟对象的方向为X轴的正方向建立目标坐标系;然后,再将第一坐标映射结果映射到目标坐标系即可得到第二坐标映射结果。
步骤S330,根据所述第二坐标映射结果得到所述原始音频信号的空间音频方位。
具体的,当得到第二坐标映射结果以后,即可根据该第二坐标映射结果得到原始音频信号的空间音频方位。通过该方法,可以进一步的提高空间音频方位的准确率,从而提高所匹配到的目标滤波器系数的准确率,最终达到提高所生成的空间音频信号的准确率的目的。
在步骤S130中,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数。
在本示例实施例中,根据空间音频方位确定原始音频信号的目标滤波器系数,可以通过如下几种方式实现:
方式一:根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,可以通过如下方式实现:首先,对所述空间音频方位进行坐标转换,得到与所述空间音频方位对应的目标笛卡尔坐标,并根据所述目标笛卡尔坐标,从预设的虚拟麦克风阵列模型中的原始三角形平面中确定与所述原始音频信号对应的目标三角形平面;其次,将所述目标笛卡尔坐标映射至所述目标三角形平面的三个顶点,得到与所述目标三角形平面的三个顶点对应的顶点系数;然后,根据各所述顶点的顶点系数以及各所述顶点的原始滤波器系数,得到所述原始音频信号的目标滤波器系数。
在一种示例实施例中,上述所记载的预设的虚拟麦克风阵列模型,是通过如下方式得到的:首先,创建与游戏场景关联的虚拟球体以及虚拟麦克风阵列;其中,所述虚拟麦克风阵列中包括多个虚拟麦克风;其次,基于预设的排列规则将各所述虚拟麦克风排列至所述虚拟球体的虚拟球面上;其中,每一个虚拟麦克风在所述虚拟球面上具有唯一的虚拟空间方位;然后,基于所述虚拟麦克风所具有的虚拟空间方位对所述虚拟球体进行切割,得到多个当前三角形平面,并根据预设的音频采样率以及所述当前三角形平面中的各顶点在所述虚拟球面上的位置,为各三角形顶点配置原始滤波器系数;最后,根据所述当前三角形平面以及各三角形顶点所具有的原始滤波器系数,构建所述预设的虚拟麦克风阵列模型。
以下,将对方式一种所记载的目标滤波器系数的具体确定过程进行解释以及说明。具体的,方式一所记载的目标滤波器系数的具体确定过程可以基于声源定位算法VBAP(Vector Based Amplitude Panning,幅度矢量合成)方案来实现。
在一种示例实施例中,在基于声源定位算法确定目标滤波器系数的过程中,首先,需要构建预设的虚拟麦克风阵列模型;其中,在构建虚拟麦克风阵列模型的过程中,首先定义一个麦克风阵列,该麦克风阵列有37个虚拟麦克风;其中,所定义的麦克风阵列具体可以参考图4所示。同时,在图4所示出的示例图中,Azimuth代表水平方位角,Altitude代表垂直方位角,37个虚拟麦克风(Altitude,Azimuth)的在球面上的方位分别为(0°,0°),(30°,0°),(30°,90°),(30°,180°),(30°,270°),(60°,0°),(60°,45°),(60°,90°),(60°,135°),(60°,180°),(60°,225°),(60°,270°),(60°,315°),(90°,0°),(90°,30°),(90°,60°),(90°,90°),(90°,120°),(90°,150°),(90°,180°),(90°,210°),(90°,240°),(90°,270°),(90°,300°),(90°,330°),(120°,0°),(120°,45°),(120°,90°),(120°,135°),(120°,180°),(120°,225°),(120°,270°),(120°,315°),(150°,0°),(150°,180°),(150°,270°)。此处需要补充说明的是,此处之所以选择37个虚拟麦克风构建麦克风阵列,其所依据的原理是:以30°作为分辨率依次遍历球面,得到30个虚拟麦克风;同时,为了可以得到更加精确的空间音频信号,可以在此基础上对已经排列好的虚拟麦克风的位置进行调整进而得到37个虚拟麦克风。
在一种示例实施例中,当麦克风阵列构建完成后,可以根据各虚拟麦克风所具有的虚拟空间方位与虚拟球体中所包括的单位圆之间的交点对麦克风阵列所在的虚拟球体进行切割,得到多个三角形平面;其中,所切割得到的三角形平面可以包括70个;当然,此处所记载的三角形平面的具体数量可以根据实际情况来确定,本示例对此不做特殊限制;最后,再基于预设的音频采样率根据各三角形平面中包括的三角形顶点在球面上的位置为各三角形顶点配置当前滤波器系数,最终得到如图5所示的预设的虚拟麦克风阵列模型。
至此,预设的虚拟麦克风阵列模型的具体构建过程已经全部完成。基于此,即可将上述所得到的空间音频方位定位至该预设的虚拟麦克风阵列模型中,然后确定该空间音频方位的矢量,并基于该空间音频方位的矢量所穿过的三角形平面确定目标三角形平面;其中,此处所依赖的实现原理为:当定义一个空间方位P(x,y,z)时,它必然穿过球面上的某个三角形,该三角形的三个顶点代表三个虚拟扬声器,进而可以使用Vbap虚拟声源定位算法将虚拟声源P映射到三角形顶点的三个虚拟扬声器上;其中,所确定得到的目标三角形平面具体可以参考图6所示。
进一步的,继续参考图6所示,当目标三角形平面确定以后,假设该目标三角形平面中包括的三个顶点为channel1,channel2,channel3(虚拟麦克风),再将空间音频方位分别映射到虚拟麦克风channel1,channel2,channel3上,获得的分量为别为L1,L2,L3;最后,基于各虚拟麦克风的分量(顶点系数)以及与各顶点对应的当前滤波器系数,即可得到目标滤波器系数。
此处需要补充说明的是,通过Vbap算法,可以在只定义37个虚拟扬声器的HRIR滤波器系数的场景下,实现精准定位任意空间方位的音频的目的,是的HRIR矩阵大小从[2592,256]降到了[37,256],占用内存不到1M,计算复杂度也大大下降。
方式二:根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,还可以通过如下方式实现:首先,根据所述空间音频方位,从预设的空间参数矩阵中匹配与所述空间音频方位对应的目标空间方位;其次,获取与所述目标空间方位对应的原始滤波器系数,并将与所述目标空间方位对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
在一种示例实施例中,上述所记载的预设的空间参数矩阵,可以通过如下方式得到:首先,基于预设的空间分辨率对空间音频的水平方位以及空间音频的垂直方位进行划分,得到多个不同的水平方位点以及垂直方位点;其次,根据所述水平方位点以及垂直方位点构建原始空间方位,并根据预设的音频采样率为各所述原始空间分为分配原始滤波器系数;然后,根据所述原始空间方位以及原始空间方位的原始滤波器系数,构建所述预设的空间参数矩阵。
以下,将对方式二种所记载的目标滤波器系数的具体确定过程进行解释以及说明。具体的,方式二所记载的目标滤波器系数的具体确定过程可以基于预设的空间参数矩阵来实现。
在一种示例实施例中,在基于预设的空间参数矩阵确定目标滤波器系数的过程中,首先,需要构建预设的空间参数矩阵;其中,在空间参数矩阵的构建过程中,可以定义两个参数azimuth和colatitude;其中,azimuth代表空间音频的水平方位,colatitude代表空间音频的垂直方位;同时,azimuth的大小范围设置为[0,360°],colatitude的大小范围设置为[0,180°],空间方位的分辨率设置为5°,则azimuth包含72个方位,即[0°,5°,10°...360°],colatitude包含36个方位,即[0°,5°,10°...180°],azimuth与colatitude组合可以表示空间2592个方位,空间分辨率为5°;进一步的,假设预设的音频采样率为44.1khz,则所使用的滤波器系数的长度为256,最终得到左耳的空间参数矩阵大小为[2592,256],右耳的空间参数矩阵大小亦为[2592,256],且空间分辨率为5°;其中,在所得到的空间参数矩阵中,横坐标代表方位,纵坐标为滤波器系数,滤波器系数与音频采样率有关。
至此,空间参数矩阵的具体确定过程已经全部实现;在此前提下,当需要进行音频空间渲染时,首先通过指定的方位(音频空间方位)到空间参数矩阵中选取最接近的方位,取出该方位的滤波器系数即可得到目标滤波器系数。
此处需要补充说明的是,相较于采用方式一中所记载的采用预设的虚拟麦克风阵列模型确定目标滤波器系数的方案来说,采用方式二中所记载的采用预设的空间参数矩阵确定目标滤波器系数,由于空间参数矩阵过大,且需要以浮点数方式进行存储,大概会占用10M的空间,实际计算中会产生过多的内存消耗。因此,在实际应用的过程中,可以根据实际需要来确定具体的确定方式,本示例对此不做特殊限制。
此处需要进一步补充说明的是,由于最终需要将3D音频空间算法部署到PC端、移动端,同时,由于移动端资源较少,对算法的复杂度有了一定要求;因此,本公开示例实施例中所记载的预设的音频采样率可以为44100hz;同时,为了满足实时率,一次处理的点为16位双通道4096个点,单通道2048个点;进一步的,考虑到算法运行时最终内存的占用问题,因此算法处理的音频为单通道帧长512、帧移256,即一次处理8帧即可处理完输入的音频点数,输入的音频时长大概46ms;同时,基于上述公开的信息可以推断出,处理8帧音频大概耗时2-3ms,为实时率的23倍以内。
方式三:根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,还可以通过如下方式得到:首先,计算所述空间音频方位以及预设的高斯球面模型中包括的原始立体方位对之间的原始距离,并根据所述原始距离的大小对所述原始立体方位对进行排序;其次,从排序结果中选取与原始距离最小的原始立体方位对作为目标立体方位对,并根据与所述目标立体方位对对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
以下,将对方式三种所记载的目标滤波器系数的具体确定过程进行解释以及说明。具体的,方式二所记载的目标滤波器系数的具体确定过程可以基于预设的高斯球面模型来实现。
在一种示例实施例中,在基于预设的高斯球面模型确定目标滤波器系数的过程中,首先,需要构建预设的高斯球面模型;也即,可以通过Gauss-Legendre sampling采样方式从球面上的立体空间选取了242个方位,并获得该242个方位的当前滤波器系数,进而基于242个方位以及242个方位的当前滤波器系数得到预设的高斯球面模型。进一步的,在预设的高斯球面模型的构建过程中,首先,确定初始水平夹角;其中,初始水平夹角的确定过程为:0到2pi内从0开始以等差数列的方式取22个数值,作为初始水平夹角;其次,确定初始垂直夹角;其中,初始垂直夹角的确定过程为:以高斯-勒让德法则取11个点,然后通过反余弦函数转换为夹角,作为初始垂直夹角;进一步的,将22个初始水平夹角重复11次,获得242个水平夹角;最后,将11个初始垂直夹角每一个夹角重复22次,重复方式为,也获得242个垂直夹角;最后,水平方向和垂直方向组成242个立体方位对,并根据各方位对的位置以及预设的音频采样率为各方位对配置当前滤波器系数,进而得到预设的高斯球面模型。此处需要补充说明的是,在对初始水平夹角以及初始垂直夹角进行重复的过程中,可以采用ABCABC的方式进行重复,也可以采用AABBCC的方式进行重复,本示例对此不做特殊限制。
进一步的,当预设的高斯球面模型构建完成后,即可计算音频空间方位与高斯球面模型中包括的各方位对的距离,并将距离最小的方位对作为目标方位对,从而获取与该目标方位对对应的当前滤波器系数,作为上述目标滤波器系数。当然,相较于采用方式一中所记载的采用预设的虚拟麦克风阵列模型确定目标滤波器系数,以及采用方式二中所记载的采用预设的空间参数矩阵确定目标滤波器系数,存在空间参数矩阵过大,且需要以浮点数方式进行存储,大概会占用10M的空间,实际计算中会产生过多的内存消耗的问题来说,采用方式三中所记载的采用预设的高斯球面模型确定目标滤波器系数,由于所有的参数占用空间为1M以内,同时还可以通过最短距离算法判断方位,可以提升目标滤波器系数的计算速度,从而达到提高空间音频信号的生成速度的目的。
在步骤S140中,根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
在本示例实施例中,根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号,可以通过如下方式实现:首先,对所述原始音频信号进行归一化处理,得到目标音频信号,并根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果;其次,对所述音频输出结果进行音量调整,得到所述空间音频信号。
在一种示例实施例中,根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果,可以通过如下方式实现:对所述目标滤波器系数以及目标音频信号进行卷积操作,得到所述音频输出结果;或者对所述目标音频信号进行傅里叶变换,并对傅里叶变换后的目标音频信号以及目标滤波器系数进行乘积操作,得到所述音频输出结果。
其中,对原始音频信号进行归一化处理的目的是:对于线上杂音问题的处理,由于算法为了产生空间感,会改变原始输入的双声道音频的音量大小,当输入的音频在某些点上接近于临界值时,经过算法卷积过后有可能会产生溢出的情况,针对这种现象的处理,首先需要对输入进来的音频进行归一化处理,然后再对输出的音频进行相应的调整;其中,在归一化处理的过程中,可以获取原始音频信号中包括的最高音,进而基于该最高音对原始音频信号进行归一化处理;同时,在得到音频输出结果以后,可以基于该最高音对音频输出结果进行调整即可得到空间音频信号。
至此,本公开示例实施例所记载的空间音频信号的生成方法已经全部实现。基于前述记载的内容可以得知,本公开示例实施例所记载的空间音频信号的生成方法,可以重新引入那些在实际游戏过程中大脑所期待的线索,并将声音引导在它们应该在的正确位置;同时,该方案重新引入了这些信号,并通过3D空间音频算法将声音定位在正确的位置,模拟真实的生活环境,进而可以这项技术可以在游戏中、电脑上、手机上或耳机内的芯片上运行,给玩家带来更真实的游戏体验。
本公开示例实施例还提供了一种空间音频信号的生成装置。具体的,参考图7所示,该空间音频信号的生成装置可以包括场景坐标获取模块710、空间音频方位确定模块720、目标滤波器系数确定模块730以及空间音频信号生成模块740。其中:
场景坐标获取模块710,可以用于获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
空间音频方位确定模块720,可以用于根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
目标滤波器系数确定模块730,可以用于根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
空间音频信号生成模块740,可以用于根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
在本公开的一种示例性实施例中,根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位,包括:计算所述第一场景坐标与第二场景坐标之间的坐标差值,并对所述坐标差值进行坐标映射,得到第一坐标映射结果;根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果;根据所述第二坐标映射结果得到所述原始音频信号的空间音频方位。
在本公开的一种示例性实施例中,对所述坐标差值进行坐标映射,得到第一坐标映射结果,包括:将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果;或者将所述坐标差值映射至第二场景坐标所在的第二坐标空间,得到第一坐标映射结果;其中,所述第一坐标空间以及第二坐标空间处于同一坐标系。
在本公开的一种示例性实施例中,将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果,包括:将所述坐标差值中包括的第一X轴坐标值以及第一Y轴坐标值映射至所述第一场景坐标所在的第一坐标空间中的第一XY平面,得到第一X轴映射值以及第一Y轴映射值;将所述坐标差值中包括的第一Z轴坐标值映射值所述第一坐标空间中的第一Z平面,得到第一Z轴映射值,并根据所述第一X轴映射值、第一Y轴映射值以及第一Z轴映射值得到第一坐标映射结果。
在本公开的一种示例性实施例中,根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果,包括:获取所述第二虚拟对象在游戏场景中的位置朝向坐标,并根据所述位置朝向坐标的矢量,确定目标坐标系的X轴方向;基于所述X轴方向构建目标坐标系,并将所述第一坐标映射结果中包括的第一X轴映射值以及第一Y轴映射值映射至所述目标坐标系中的第二XY平面,得到第二X轴映射值以及第二Y轴映射值;将所述第一坐标映射结果中包括的第一Z轴映射值映射至目标坐标系中的第二Z平面,得到第二Z轴映射值,并根据所述第二X轴映射值、第二Y轴映射值以及第二Z轴映射值得到第二坐标映射结果。
在本公开的一种示例性实施例中,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:对所述空间音频方位进行坐标转换,得到与所述空间音频方位对应的目标笛卡尔坐标,并根据所述目标笛卡尔坐标,从预设的虚拟麦克风阵列模型中的原始三角形平面中确定与所述原始音频信号对应的目标三角形平面;将所述目标笛卡尔坐标映射至所述目标三角形平面的三个顶点,得到与所述目标三角形平面的三个顶点对应的顶点系数;根据各所述顶点的顶点系数以及各所述顶点的原始滤波器系数,得到所述原始音频信号的目标滤波器系数。
在本公开的一种示例性实施例中,所述空间音频信号的生成装置还可以包括:
虚拟麦克风阵列创建模块,可以用于创建与游戏场景关联的虚拟球体以及虚拟麦克风阵列;其中,所述虚拟麦克风阵列中包括多个虚拟麦克风;
虚拟麦克风排列模块,可以用于基于预设的排列规则将各所述虚拟麦克风排列至所述虚拟球体的虚拟球面上;其中,每一个虚拟麦克风在所述虚拟球面上具有唯一的虚拟空间方位;
虚拟球体切割模块,可以用于基于所述虚拟麦克风所具有的虚拟空间方位对所述虚拟球体进行切割,得到多个当前三角形平面,并根据预设的音频采样率以及所述当前三角形平面中的各顶点在所述虚拟球面上的位置,为各三角形顶点配置原始滤波器系数;
虚拟麦克风阵列模型构建模块,可以用于根据所述当前三角形平面以及各三角形顶点所具有的原始滤波器系数,构建所述预设的虚拟麦克风阵列模型。
在本公开的一种示例性实施例中,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:根据所述空间音频方位,从预设的空间参数矩阵中匹配与所述空间音频方位对应的目标空间方位;获取与所述目标空间方位对应的原始滤波器系数,并将与所述目标空间方位对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
在本公开的一种示例性实施例中,所述空间音频信号的生成装置还可以包括:
方位划分模块,可以用于基于预设的空间分辨率对空间音频的水平方位以及空间音频的垂直方位进行划分,得到多个不同的水平方位点以及垂直方位点;
原始滤波器系数分配模块,可以用于根据所述水平方位点以及垂直方位点构建原始空间方位,并根据预设的音频采样率为各所述原始空间分为分配原始滤波器系数;
空间参数矩阵构建模块,可以用于根据所述原始空间方位以及原始空间方位的原始滤波器系数,构建所述预设的空间参数矩阵。
在本公开的一种示例性实施例中,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:计算所述空间音频方位以及预设的高斯球面模型中包括的原始立体方位对之间的原始距离,并根据所述原始距离的大小对所述原始立体方位对进行排序;从排序结果中选取与原始距离最小的原始立体方位对作为目标立体方位对,并根据与所述目标立体方位对对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
在本公开的一种示例性实施例中,根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号,包括:对所述原始音频信号进行归一化处理,得到目标音频信号,并根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果;对所述音频输出结果进行音量调整,得到所述空间音频信号。
在本公开的一种示例性实施例中,根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果,包括:对所述目标滤波器系数以及目标音频信号进行卷积操作,得到所述音频输出结果;或者对所述目标音频信号进行傅里叶变换,并对傅里叶变换后的目标音频信号以及目标滤波器系数进行乘积操作,得到所述音频输出结果。
在本公开的一种示例性实施例中,所述第一虚拟对象为原始音频信号的发起者,所述第二虚拟对象为所述原始音频信号的接收者。
上述空间音频信号的生成装置中各模块的具体细节已经在对应的空间音频信号的生成方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830以及显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行如图1中所示的步骤S110:获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;步骤S120:根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;步骤S130:根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;步骤S140:根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器880与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器880通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里发明的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未发明的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (16)
1.一种空间音频信号的生成方法,其特征在于,包括:
获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
2.根据权利要求1所述的空间音频信号的生成方法,其特征在于,根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位,包括:
计算所述第一场景坐标与第二场景坐标之间的坐标差值,并对所述坐标差值进行坐标映射,得到第一坐标映射结果;
根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果;
根据所述第二坐标映射结果得到所述原始音频信号的空间音频方位。
3.根据权利要求2所述的空间音频信号的生成方法,其特征在于,对所述坐标差值进行坐标映射,得到第一坐标映射结果,包括:
将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果;或者
将所述坐标差值映射至第二场景坐标所在的第二坐标空间,得到第一坐标映射结果;
其中,所述第一坐标空间以及第二坐标空间处于同一坐标系。
4.根据权利要求3所述的空间音频信号的生成方法,其特征在于,将所述坐标差值映射至第一场景坐标所在的第一坐标空间,得到第一坐标映射结果,包括:
将所述坐标差值中包括的第一X轴坐标值以及第一Y轴坐标值映射至所述第一场景坐标所在的第一坐标空间中的第一XY平面,得到第一X轴映射值以及第一Y轴映射值;
将所述坐标差值中包括的第一Z轴坐标值映射值所述第一坐标空间中的第一Z平面,得到第一Z轴映射值,并根据所述第一X轴映射值、第一Y轴映射值以及第一Z轴映射值得到第一坐标映射结果。
5.根据权利要求2所述的空间音频信号的生成方法,其特征在于,根据所述第二虚拟对象在游戏场景中的位置朝向坐标构建目标坐标系,并将所述第一坐标映射结果映射至所述目标坐标系中,得到第二坐标映射结果,包括:
获取所述第二虚拟对象在游戏场景中的位置朝向坐标,并根据所述位置朝向坐标的矢量,确定目标坐标系的X轴方向;
基于所述X轴方向构建目标坐标系,并将所述第一坐标映射结果中包括的第一X轴映射值以及第一Y轴映射值映射至所述目标坐标系中的第二XY平面,得到第二X轴映射值以及第二Y轴映射值;
将所述第一坐标映射结果中包括的第一Z轴映射值映射至目标坐标系中的第二Z平面,得到第二Z轴映射值,并根据所述第二X轴映射值、第二Y轴映射值以及第二Z轴映射值得到第二坐标映射结果。
6.根据权利要求1所述的空间音频信号的生成方法,其特征在于,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:
对所述空间音频方位进行坐标转换,得到与所述空间音频方位对应的目标笛卡尔坐标,并根据所述目标笛卡尔坐标,从预设的虚拟麦克风阵列模型中的原始三角形平面中确定与所述原始音频信号对应的目标三角形平面;
将所述目标笛卡尔坐标映射至所述目标三角形平面的三个顶点,得到与所述目标三角形平面的三个顶点对应的顶点系数;
根据各所述顶点的顶点系数以及各所述顶点的原始滤波器系数,得到所述原始音频信号的目标滤波器系数。
7.根据权利要求6所述的空间音频信号的生成方法,其特征在于,所述空间音频信号的生成方法还包括:
创建与游戏场景关联的虚拟球体以及虚拟麦克风阵列;其中,所述虚拟麦克风阵列中包括多个虚拟麦克风;
基于预设的排列规则将各所述虚拟麦克风排列至所述虚拟球体的虚拟球面上;其中,每一个虚拟麦克风在所述虚拟球面上具有唯一的虚拟空间方位;
基于所述虚拟麦克风所具有的虚拟空间方位对所述虚拟球体进行切割,得到多个当前三角形平面,并根据预设的音频采样率以及所述当前三角形平面中的各顶点在所述虚拟球面上的位置,为各三角形顶点配置原始滤波器系数;
根据所述当前三角形平面以及各三角形顶点所具有的原始滤波器系数,构建所述预设的虚拟麦克风阵列模型。
8.根据权利要求1所述的空间音频信号的生成方法,其特征在于,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:
根据所述空间音频方位,从预设的空间参数矩阵中匹配与所述空间音频方位对应的目标空间方位;
获取与所述目标空间方位对应的原始滤波器系数,并将与所述目标空间方位对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
9.根据权利要求8所述的空间音频信号的生成方法,其特征在于,所述空间音频信号的生成方法还包括:
基于预设的空间分辨率对空间音频的水平方位以及空间音频的垂直方位进行划分,得到多个不同的水平方位点以及垂直方位点;
根据所述水平方位点以及垂直方位点构建原始空间方位,并根据预设的音频采样率为各所述原始空间分为分配原始滤波器系数;
根据所述原始空间方位以及原始空间方位的原始滤波器系数,构建所述预设的空间参数矩阵。
10.根据权利要求1所述的空间音频信号的生成方法,其特征在于,根据所述空间音频方位确定所述原始音频信号的目标滤波器系数,包括:
计算所述空间音频方位以及预设的高斯球面模型中包括的原始立体方位对之间的原始距离,并根据所述原始距离的大小对所述原始立体方位对进行排序;
从排序结果中选取与原始距离最小的原始立体方位对作为目标立体方位对,并根据与所述目标立体方位对对应的原始滤波器系数,确定所述原始音频信号的目标滤波器系数。
11.根据权利要求1所述的空间音频信号的生成方法,其特征在于,根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号,包括:
对所述原始音频信号进行归一化处理,得到目标音频信号,并根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果;
对所述音频输出结果进行音量调整,得到所述空间音频信号。
12.根据权利要求11所述的空间音频信号的生成方法,其特征在于,根据所述目标滤波器系数以及所述目标音频信号,得到音频输出结果,包括:
对所述目标滤波器系数以及目标音频信号进行卷积操作,得到所述音频输出结果;或者
对所述目标音频信号进行傅里叶变换,并对傅里叶变换后的目标音频信号以及目标滤波器系数进行乘积操作,得到所述音频输出结果。
13.根据权利要求1-12任一项所述的空间音频信号的生成方法,其特征在于,所述第一虚拟对象为原始音频信号的发起者,所述第二虚拟对象为所述原始音频信号的接收者。
14.一种空间音频信号的生成装置,其特征在于,包括:
场景坐标获取模块,用于获取第一虚拟对象在游戏场景中的第一场景坐标,以及第二虚拟对象在游戏场景中的第二场景坐标;
空间音频方位确定模块,用于根据所述第一场景坐标以及第二场景坐标,确定原始音频信号的空间音频方位;
目标滤波器系数确定模块,用于根据所述空间音频方位确定所述原始音频信号的目标滤波器系数;
空间音频信号生成模块,用于根据所述目标滤波器系数以及所述原始音频信号,生成所述空间音频信号。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-13任一项所述的空间音频信号的生成方法。
16.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-13任一项所述的空间音频信号的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310390918.0A CN116421971A (zh) | 2023-04-12 | 2023-04-12 | 空间音频信号的生成方法及装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310390918.0A CN116421971A (zh) | 2023-04-12 | 2023-04-12 | 空间音频信号的生成方法及装置、存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116421971A true CN116421971A (zh) | 2023-07-14 |
Family
ID=87088649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310390918.0A Pending CN116421971A (zh) | 2023-04-12 | 2023-04-12 | 空间音频信号的生成方法及装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116421971A (zh) |
-
2023
- 2023-04-12 CN CN202310390918.0A patent/CN116421971A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112567767B (zh) | 用于交互式音频环境的空间音频 | |
Serafin et al. | Sonic interactions in virtual reality: State of the art, current challenges, and future directions | |
US10820097B2 (en) | Method, systems and apparatus for determining audio representation(s) of one or more audio sources | |
KR102654507B1 (ko) | 다중-지점 음장 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 | |
Schissler et al. | Efficient HRTF-based spatial audio for area and volumetric sources | |
US10757528B1 (en) | Methods and systems for simulating spatially-varying acoustics of an extended reality world | |
JP7210602B2 (ja) | オーディオ信号の処理用の方法及び装置 | |
CN111385728A (zh) | 一种音频信号处理方法及装置 | |
CN114038486A (zh) | 音频数据处理方法、装置、电子设备及计算机存储介质 | |
EP3541097B1 (en) | Spatial sound reproduction using multichannel loudspeaker systems | |
CN114339582B (zh) | 双通道音频处理、方向感滤波器生成方法、装置以及介质 | |
CN115103292A (zh) | 虚拟场景中的音频处理方法、装置、电子设备及存储介质 | |
CN116421971A (zh) | 空间音频信号的生成方法及装置、存储介质、电子设备 | |
CN112470218B (zh) | 低频信道间相干性控制 | |
CN112927701A (zh) | 样本生成、神经网络生成、音频信号生成方法及装置 | |
WO2023051708A1 (zh) | 用于空间音频渲染的系统、方法和电子设备 | |
US20230421978A1 (en) | Method and Apparatus for Obtaining a Higher-Order Ambisonics (HOA) Coefficient | |
CN117998274A (zh) | 音频处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |