CN109121069B - 3d音效处理方法及相关产品 - Google Patents
3d音效处理方法及相关产品 Download PDFInfo
- Publication number
- CN109121069B CN109121069B CN201811116325.0A CN201811116325A CN109121069B CN 109121069 B CN109121069 B CN 109121069B CN 201811116325 A CN201811116325 A CN 201811116325A CN 109121069 B CN109121069 B CN 109121069B
- Authority
- CN
- China
- Prior art keywords
- channel data
- dimensional coordinate
- target
- data
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Abstract
本申请实施例公开了一种3D音效处理方法及相关产品,该方法包括:获取声源的第一三维坐标,以及所述声源产生的单声道数据;获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。采用本申请实施例能够在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,提升了用户体验。
Description
技术领域
本申请涉及虚拟/增强现实技术领域,具体涉及一种3D音效处理方法及相关产品。
背景技术
随着电子设备(如手机、平板电脑等)的大量普及应用,电子设备能够支持的应用越来越多,功能越来越强大,电子设备向着多样化、个性化的方向发展,成为用户生活中不可缺少的电子用品。
随着技术发展,虚拟现实在电子设备中也得到了迅猛发展,然而,虚拟现实产品中,现有技术中耳机接收的音频数据往往是2D音频数据,因此,无法给用户带来声音的真实感,降低了用户体验。
发明内容
本申请实施例提供了一种3D音效处理方法及相关产品,能够合成3D音效,提升用户体验。
第一方面,本申请实施例提供一种3D音效处理方法,包括:
获取声源的第一三维坐标,以及所述声源产生的单声道数据;
获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
第二方面,本申请实施例提供了一种3D音效处理装置,所述3D音效处理装置包括:获取单元、第二获取单元和生成单元,其中,
所述第一获取单元,用于获取声源的第一三维坐标,以及所述声源产生的单声道数据;
所述第二获取单元,用于获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
所述生成单元,用于依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
可以看出,本申请实施例中所描述的3D音效处理方法及相关产品,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,提升了用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种电子设备的结构示意图;
图1B是本申请实施例公开的一种3D音效处理方法的流程示意图;
图1C是本申请实施例公开的多路双声道数据划分方式的演示示意图;
图2是本申请实施例公开的另一种3D音效处理方法的流程示意图;
图3是本申请实施例公开的另一种3D音效处理方法的流程示意图;
图4是本申请实施例公开的另一种电子设备的结构示意图;
图5A是本申请实施例公开的一种3D音效处理装置的结构示意图;
图5B是本申请实施例公开的一种3D音效处理装置的另一结构示意图;
图5C是本申请实施例公开的一种3D音效处理装置的另一结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以包括各种具有无线通信功能的手持设备(如智能手机)、车载设备、虚拟现实(virtual reality,VR)/增强现实(augmentedreality,AR)设备,可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(user equipment,UE),移动台(mobile station,MS),终端设备(terminal device)、研发/测试平台、服务器等等。为方便描述,上面提到的设备统称为电子设备。
具体实现中,本申请实施例中,电子设备可对音频数据(声源发出的声音)使用HRTF(Head Related Transfer Function,头相关变换函数)滤波器进行滤波,得到虚拟环绕声,也称之为环绕声,或者全景声,实现一种三维立体音效。HRTF在时间域所对应的名称是HRIR(Head Related Impulse Response)。或者将音频数据与双耳房间脉冲响应(Binaural Room Impulse Response,BRIR)做卷积,双耳房间脉冲响应由三个部分组成:直达声,早期反射声和混响。
请参阅图1A,图1A是本申请实施例提供了一种电子设备的结构示意图,电子设备包括控制电路和输入-输出电路,输入输出电路与控制电路连接。
其中,控制电路可以包括存储和处理电路。该存储和处理电路中的存储电路可以是存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程只读存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。存储和处理电路中的处理电路可以用于控制电子设备的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
存储和处理电路可用于运行电子设备中的软件,例如播放来电提示响铃应用程序、播放短消息提示响铃应用程序、播放闹钟提示响铃应用程序、播放媒体文件应用程序、互联网协议语音(voice over internet protocol,VOIP)电话呼叫应用程序、操作系统功能等。这些软件可以用于执行一些控制操作,例如,播放来电提示响铃、播放短消息提示响铃、播放闹钟提示响铃、播放媒体文件、进行语音电话呼叫以及电子设备中的其它功能等,本申请实施例不作限制。
其中,输入-输出电路可用于使电子设备实现数据的输入和输出,即允许电子设备从外部设备接收数据和允许电子设备将数据从电子设备输出至外部设备。
输入-输出电路可以进一步包括传感器。传感器可以包括环境光传感器,基于光和电容的红外接近传感器,超声波传感器,触摸传感器(例如,基于光触摸传感器和/或电容式触摸传感器,其中,触摸传感器可以是触控显示屏的一部分,也可以作为一个触摸传感器结构独立使用),加速度传感器,重力传感器,和其它传感器等。输入-输出电路还可以进一步包括音频组件,音频组件可以用于为电子设备提供音频输入和输出功能。音频组件还可以包括音调发生器以及其它用于产生和检测声音的组件。
输入-输出电路还可以包括一个或多个显示屏。显示屏可以包括液晶显示屏,有机发光二极管显示屏,电子墨水显示屏,等离子显示屏,使用其它显示技术的显示屏中一种或者几种的组合。显示屏可以包括触摸传感器阵列(即,显示屏可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
输入-输出电路还可以进一步包括通信电路可以用于为电子设备提供与外部设备通信的能力。通信电路可以包括模拟和数字输入-输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信电路中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信电路中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(near field communication,NFC)的电路。例如,通信电路可以包括近场通信天线和近场通信收发器。通信电路还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
输入-输出电路还可以进一步包括其它输入-输出单元。输入-输出单元可以包括按钮,操纵杆,点击轮,滚动轮,触摸板,小键盘,键盘,照相机,发光二极管和其它状态指示器等。
其中,电子设备还可以进一步包括电池(未图示),电池用于给电子设备提供电能。
下面对本申请实施例进行详细介绍。
请参阅图1B,图1B是本申请实施例公开的一种3D音效处理方法的流程示意图,应用于上述图1A所描述的电子设备,该3D音效处理方法包括如下步骤101-103。
101、获取声源的第一三维坐标,以及所述声源产生的单声道数据。
其中,本申请实施例可应用于虚拟现实/增强现实场景,或者,3D录音场景。本申请实施例中,声源可以为虚拟场景中一发声体,例如,游戏场景中的一个飞机,声源可以为固定声源,或者,移动声源。由于虚拟场景中每一物体均可以对应一个三维坐标,因此,可以获取声源的第一三维坐标,在声源发出声音时,则可以获取生源产生的单声道数据。
102、获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点。
其中,目标对象也可以对应一个三维坐标,即第二三维坐标,当然,第一三维坐标与第二三维坐标为不同的位置,且第一三维坐标、第二三维坐标基于同一坐标原点。
可选地,在所述目标对象处于游戏场景时,上述步骤102,获取目标对象的第二三维坐标,可包括如下步骤:
21、获取所述游戏场景对应的地图;
22、在所述地图中确定所述目标对象对应的坐标位置,得到所述第二三维坐标。
其中,在目标对象处于游戏场景时,目标对象可视为游戏中一角色,当然,具体实现中,游戏场景可对应一三维地图,因此,电子设备可以获取游戏场景对应的地图,并在地图中确定目标对象对应的坐标位置,得到第二三维坐标,如此,针对不同的游戏,可实时知晓角色位置,在本申请实施例中,针对角色具体位置,能够生成3D音效,让用户在游戏时,能够身临其境,感觉游戏世界更为逼真。
103、依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
其中,在知晓声源的第一坐标位置、目标对象的第二三维坐标,则可以将单声道数据生成双声道数据,具体地,可以将第一三维坐标、第二三维坐标、单声道数据输入到HRTF模型中,得到双声道数据。
举例说明下,具体实现中,电子设备可根据发声体的空间三维坐标位置(x,y,z),该位置可以是任意坐标,再根据发声体产生的单声道数据,生成左右声道,左右声道的产生原理是依据发声体距离听者(X,Y,Z),单点数据传输左耳和传输到右耳数据的时间差以及相位压力差生成双声道声音。当然,上述根据发声体的空间三维坐标位置(x,y,z),该位置可以是任意坐标;另外,上述根据发声体产生的单声道数据,生成左右声道,例如,根据发声体的空间三维坐标位置(x,y,z),固定听者位置为(0,0,0)之间不管听者如何移动,发声体的位置双声道声音。
可选地,上述步骤103,依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据,可包括如下步骤:
31、将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
32、将所述多路双声道数据合成目标双声道数据。
其中,声源的原始声音数据为单声道数据,通过算法处理(例如,HRTF算法),则可以得到双声道数据,由于在现实环境中,声音是沿着各个方向进行传播,当然,在传播过程中,也会出现反射、折射、干涉、衍射等现象,因此,本申请实施例中,用于最终合成目标双声道数据的仅仅为经过第一三维坐标与第二三维坐标之间的多路双声道数据,将该多路双声道数据合成目标双声道数据。
可选地,上述步骤32,将所述多路双声道数据合成目标双声道数据,可包括如下步骤:
321、以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
322、将所述第一双声道数据集合进行合成,得到第一单声道数据;
323、将所述第二双声道数据集合进行合成,得到第二单声道数据;
323将所述第一单声道数据、所述第二单声道数据进行合成,得到所述目标双声道数据。
其中,在知晓第一三维坐标,第二三维坐标之后,可以第一三维坐标与第二三维坐标为轴线作横截面,由于声音传播方向一定,传播轨迹也会沿着一定的对称轴具备一定的对称性,如图1C所示,第一三维坐标与第二三维坐标形成轴线,以该轴线作横截面,可以将多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,不考虑外在因素,例如,折射,反射,衍射等情况,则第一双声道数据集合与第二双声道数据集合也可以是包含相同路数的双声道数据,且不同集合的双声道数据也是对称关系,第一双声道数据集合、第二声道数据集合均包括至少一路双声道数据,具体实现中,电子设备可将第一双声道数据集合进行合成,得到第一单声道数据,电子设备可以包括左右耳机,第一单声道数据可以主要由左耳机播放,相应地,电子设备可将第二双声道数据集合进行合成,得到第二单声道数据,第二单声道数据可以主要由右耳机播放,最后,将第一单声道数据、第二单声道数据进行合成,得到目标双声道数据。
可选地,上述步骤322,将所述第一双声道数据集合进行合成,得到第一单声道数据,可包括如下步骤:
3221、将所述第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值;
3222、从所述多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值;
3223、确定所述多个第一目标能量值对应的第一双声道数据,将所述第一双声道数据进行合成,得到所述第一单声道数据。
其中,上述第一能量阈值可以由用户自行设置或者系统默认。具体实现中,电子设备可将第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值,进而,从多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值,确定多个第一目标能量值对应的第一双声道数据,将第一双声道数据进行合成,得到第一单声道数据。
可选地,基于与上述步骤3221-步骤3223,也可以实现上述步骤323,在此不再赘述。
可选地,在上述步骤101-步骤103之间,还可以包括如下步骤:
A1、获取所述目标对象的面部朝向;
则,上述步骤103,依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据,可按照如下方式实施:
依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
其中,具体实现中,用户不同的面部朝向,则听到的3D音效也不一样,鉴于此,本申请实施例中,则考虑目标对象的面部朝向,电子设备可检测目标对象的面部朝向,具体地,若是游戏场景,则可以检测目标对象的相对于声源的朝向作为目标对象的面部朝向,若电子设备为是考虑用户头戴设备,例如,头戴式虚拟现实眼镜、虚拟现实头盔、虚拟现实头带显示设备等。人头方向的检测可以使用多种传感器,包括但不限于电阻式传感器、力学传感器、光敏传感器、超声波传感器、肌肉传感器等,在此不做限定。可以是其中一种传感器,也可以是其中几种传感器的组合,可以是一个传感器还可以是几个传感器的组合。人头方向的检测可以按照每隔预设时间间隔进行检测,预设时间间隔可以由用户自行设置或者系统默认。
可选地,在上述步骤103之后,还可以包括如下步骤:
B1、获取当前环境对应的目标壁纸;
B2、按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数;
B3、依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据。
其中,上述混响效果参数可以包括以下至少一种:输入电平、低频切点、高频切点、早反射时间、扩散程度、低混比率、残响时间、高频衰点、分频点、原始干声音量、早反射声音量、混响音量、声场宽度、输出声场、尾音等等,在此不作限定。壁纸可以理解为环境的背景,此处环境可以为真实物理环境或者游戏环境,不同的环境可以对应不同的壁纸,在游戏场景下,可以确定目标对象的位置,进而,依据地图确定该位置对应的目标壁纸,若非游戏场景下,则可以通过环境传感器检测当前环境参数,依据当前环境参数确定当前环境,其中,环境传感器可以为以下至少一种传感器、湿度传感器、温度传感器、超声波传感器、距离传感器、摄像头等等,在此不做限定,上述环境参数可以为以下至少一种:温度、湿度、距离、影像等等,在此不做限定,电子设备中可以预先存储环境参数与环境之间的映射关系,进而,依据该映射关系确定当前环境参数对应的当前环境,电子设备中还可以预先存储环境与壁纸之间的映射关系,进而,依据该映射关系确定当前环境对应的目标壁纸,电子设备中还预先存储预设的壁纸与混响效果参数之间的映射关系,依据该映射关系可以确定目标壁纸对应的目标混响效果参数(reverb),进而,依据目标混响效果参数对目标双声道数据进行处理,得到混响双声道数据,具体地,可以将目标混响效果参数对应的参数输入到HRTF算法模型中,得到混响双声道数据。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,提升了用户体验。
与上述一致地,图2是本申请实施例公开的一种3D音效处理方法的流程示意图。应用于如图1A所示的电子设备,该3D音效处理方法包括如下步骤201-206。
201、获取声源的第一三维坐标,以及所述声源产生的单声道数据。
202、获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点。
203、获取所述目标对象的面部朝向。
204、依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
其中,上述步骤201-步骤204的具体描述可以参照图1B所描述的3D音效处理方法的相应描述,在此不再赘述。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,获取目标对象的面部朝向,依据面部朝向、第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,以及用户面部朝向,则可以生成3D音效,这样的3D音效则随着用户面部朝向不同,而不同,因此,3D音效更加逼真,提升了用户体验。
与上述一致地,图3是本申请实施例公开的一种3D音效处理方法的流程示意图。应用于图1A所示的电子设备,该3D音效处理方法包括如下步骤301-306。
301、获取声源的第一三维坐标,以及所述声源产生的单声道数据。
302、获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点。
303、依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
304、获取当前环境对应的目标壁纸。
305、按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数。
306、依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据。
其中,上述步骤301-步骤306的具体描述可以参照图1B所描述的3D音效处理方法的相应描述,在此不再赘述。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,获取当前环境对应的目标壁纸,按照预设的壁纸与混响效果参数之间的映射关系,确定目标壁纸对应的目标混响效果参数,依据目标混响效果参数对目标双声道数据进行处理,得到混响双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,进一步还能生成带reverb效果的双声道数据,3D音效体验感更加逼真,提升了用户体验。
请参阅图4,图4是本申请实施例公开的另一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行以下步骤的指令:
获取声源的第一三维坐标,以及所述声源产生的单声道数据;
获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
可以看出,本申请实施例中所描述的电子设备,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,提升了用户体验。
在一个可能的示例中,在所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据方面,上述程序包括用于执行以下步骤的指令:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
将所述多路双声道数据合成目标双声道数据。
在一个可能的示例中,在所述将所述多路双声道数据合成目标双声道数据方面,上述程序包括用于执行以下步骤的指令:
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
将所述第一单声道数据、所述第二单声道数据进行合成,得到所述目标双声道数据。
在一个可能的示例中,在所述将所述第一双声道数据集合进行合成,得到第一单声道数据方面,上述程序包括用于执行以下步骤的指令:
将所述第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值;
从所述多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值;
确定所述多个第一目标能量值对应的第一双声道数据,将所述第一双声道数据进行合成,得到所述第一单声道数据。
在一个可能的示例中,上述程序还包括用于执行以下步骤的指令:
获取所述目标对象的面部朝向;
所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据,包括:
依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
在一个可能的示例中,在所述目标对象处于游戏场景时,在所述获取目标对象的第二三维坐标方面,上述程序包括用于执行以下步骤的指令:
获取所述游戏场景对应的地图;
在所述地图中确定所述目标对象对应的坐标位置,得到所述第二三维坐标。
在一个可能的示例中,所述方法还包括:
获取当前环境对应的目标壁纸;
按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数;
依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
请参阅图5A,图5A是本申请实施例公开的一种3D音效处理装置的结构示意图,应用于图1A所示的电子设备,所述3D音效处理装置500包括第一获取单元501、第二获取单元502和生成单元503,其中,
所述第一获取单元501,用于获取声源的第一三维坐标,以及所述声源产生的单声道数据;
所述第二获取单元502,用于获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
所述生成单元503,用于依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
可以看出,本申请实施例中所描述的3D音效处理装置,获取声源的第一三维坐标,以及声源产生的单声道数据,获取目标对象的第二三维坐标,第一三维坐标、第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据生成目标双声道数据,如此,在确定了声源的第一三维坐标以及目标对象的第二三维坐标,则可以生成3D音效,提升了用户体验。
在一个可能的示例中,在所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据方面,所述生成单元503具体用于:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
将所述多路双声道数据合成目标双声道数据。
在一个可能的实施例中,在所述将所述多路双声道数据合成目标双声道数据方面,所述生成单元503具体用于:
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
将所述第一单声道数据、所述第二单声道数据进行合成,得到所述目标双声道数据。
在一个可能的示例中,在所述将所述第一双声道数据集合进行合成,得到第一单声道数据方面,所述生成单元503具体用于:
将所述第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值;
从所述多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值;
确定所述多个第一目标能量值对应的第一双声道数据,将所述第一双声道数据进行合成,得到所述第一单声道数据。
在一个可能的示例中,如图5B,图5B为图5A所描述的3D音效处理装置的又一变型装置,其与图5A相比较,还可以包括:第三获取单元504,具体如下:
所述第三获取单元504,用于获取所述目标对象的面部朝向;
在所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据方面,所述生成单元503具体用于:
依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
在一个可能的示例中,在所述目标对象处于游戏场景时,在所述获取目标对象的第二三维坐标方面,所述第二获取单元502具体用于:
获取所述游戏场景对应的地图;
在所述地图中确定所述目标对象对应的坐标位置,得到所述第二三维坐标。
在一个可能的示例中,如图5C,图5C为图5A所描述的3D音效处理装置的又一变型装置,其与图5A相比较,还可以包括:第四获取单元505、确定单元506和处理单元507,具体如下:
所述第四获取单元505,用于获取当前环境对应的目标壁纸;
所述确定单元506,用于按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数;
所述处理单元507,用于依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据。
需要注意的是,本申请实施例所描述的电子设备是以功能单元的形式呈现。这里所使用的术语“单元”应当理解为尽可能最宽的含义,用于实现各个“单元”所描述功能的对象例如可以是集成电路ASIC,单个电路,用于执行一个或多个软件或固件程序的处理器(共享的、专用的或芯片组)和存储器,组合逻辑电路,和/或提供实现上述功能的其他合适的组件。
其中,第一获取单元501、第二获取单元502、生成单元503、第三获取单元504、第四获取单元505、确定单元506和处理单元507可以是控制电路或处理器。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任何一种3D音效处理方法的部分或全部步骤。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种3D音效处理方法的部分或全部步骤。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、ROM、RAM、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (7)
1.一种3D音效处理方法,其特征在于,所述方法包括:
获取声源的第一三维坐标,以及所述声源产生的单声道数据;
获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据;所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据,包括:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二双声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
将所述第一单声道数据、所述第二单声道数据进行合成,得到所述目标双声道数据;
获取当前环境对应的目标壁纸;
按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数;
依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据,包括将目标混响效果参数对应的参数输入到HRTF算法模型中,得到混响双声道数据。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一双声道数据集合进行合成,得到第一单声道数据,包括:
从所述第一双声道数据集合中获取每一路双声道数据的能量值,得到多个能量值;
从所述多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值;
确定所述多个第一目标能量值对应的第一双声道数据,将所述第一双声道数据进行合成,得到所述第一单声道数据。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
获取所述目标对象的面部朝向;
所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据,包括:
依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据。
4.根据权利要求1所述的方法,其特征在于,在所述目标对象处于游戏场景时,所述获取目标对象的第二三维坐标,包括:
获取所述游戏场景对应的地图;
在所述地图中确定所述目标对象对应的坐标位置,得到所述第二三维坐标。
5.一种3D音效处理装置,其特征在于,所述3D音效处理装置包括:第一获取单元、第二获取单元和生成单元,其中,
所述第一获取单元,用于获取声源的第一三维坐标,以及所述声源产生的单声道数据;
所述第二获取单元,用于获取目标对象的第二三维坐标,所述第一三维坐标、所述第二三维坐标基于同一坐标原点;
所述生成单元,用于依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据生成目标双声道数据;其中,所述生成单元,具体用于:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二双声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
将所述第一单声道数据、所述第二单声道数据进行合成,得到所述目标双声道数据;
还包括第三获取单元,用于获取当前环境对应的目标壁纸;确定单元,用于按照预设的壁纸与混响效果参数之间的映射关系,确定所述目标壁纸对应的目标混响效果参数;处理单元,用于依据所述目标混响效果参数对所述目标双声道数据进行处理,得到混响双声道数据,包括将目标混响效果参数对应的参数输入到HRTF算法模型中,得到混响双声道数据。
6.一种电子设备,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-4任一项所述的方法中的步骤的指令。
7.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-4任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811116325.0A CN109121069B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
PCT/CN2019/095830 WO2020063037A1 (zh) | 2018-09-25 | 2019-07-12 | 3d音效处理方法及相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811116325.0A CN109121069B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109121069A CN109121069A (zh) | 2019-01-01 |
CN109121069B true CN109121069B (zh) | 2021-02-02 |
Family
ID=64856181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811116325.0A Active CN109121069B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109121069B (zh) |
WO (1) | WO2020063037A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108924705B (zh) * | 2018-09-25 | 2021-07-02 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109121069B (zh) * | 2018-09-25 | 2021-02-02 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN113467603B (zh) * | 2020-03-31 | 2024-03-08 | 抖音视界有限公司 | 音频处理方法、装置、可读介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070160216A1 (en) * | 2003-12-15 | 2007-07-12 | France Telecom | Acoustic synthesis and spatialization method |
CN104869524B (zh) * | 2014-02-26 | 2018-02-16 | 腾讯科技(深圳)有限公司 | 三维虚拟场景中的声音处理方法及装置 |
CN107193386B (zh) * | 2017-06-29 | 2020-10-27 | 联想(北京)有限公司 | 音频信号处理方法及电子设备 |
CN107360494A (zh) * | 2017-08-03 | 2017-11-17 | 北京微视酷科技有限责任公司 | 一种3d音效处理方法、装置、系统及音响系统 |
CN109121069B (zh) * | 2018-09-25 | 2021-02-02 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
-
2018
- 2018-09-25 CN CN201811116325.0A patent/CN109121069B/zh active Active
-
2019
- 2019-07-12 WO PCT/CN2019/095830 patent/WO2020063037A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN109121069A (zh) | 2019-01-01 |
WO2020063037A1 (zh) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10993063B2 (en) | Method for processing 3D audio effect and related products | |
CN109254752B (zh) | 3d音效处理方法及相关产品 | |
CN109327795B (zh) | 音效处理方法及相关产品 | |
CN108886653B (zh) | 一种耳机声道控制方法、相关设备及系统 | |
CN109246580B (zh) | 3d音效处理方法及相关产品 | |
CN109121069B (zh) | 3d音效处理方法及相关产品 | |
US10496360B2 (en) | Emoji to select how or where sound will localize to a listener | |
CN108924705B (zh) | 3d音效处理方法及相关产品 | |
CN104205880A (zh) | 基于取向的音频控制 | |
JP6764490B2 (ja) | 媒介現実 | |
CN111757241B (zh) | 音效控制方法、装置、音箱阵列及可穿戴设备 | |
CN109104687B (zh) | 音效处理方法及相关产品 | |
CN110401898B (zh) | 输出音频数据的方法、装置、设备和存储介质 | |
CN107707742B (zh) | 一种音频文件播放方法及移动终端 | |
CN109327766B (zh) | 3d音效处理方法及相关产品 | |
CN109327794B (zh) | 3d音效处理方法及相关产品 | |
CN108882112B (zh) | 音频播放控制方法、装置、存储介质及终端设备 | |
CN114339582B (zh) | 双通道音频处理、方向感滤波器生成方法、装置以及介质 | |
CN109286841B (zh) | 电影音效处理方法及相关产品 | |
CN112927718B (zh) | 感知周围环境的方法、装置、终端和存储介质 | |
CN109243413B (zh) | 3d音效处理方法及相关产品 | |
CN110428802B (zh) | 声音混响方法、装置、计算机设备及计算机存储介质 | |
CN114630240B (zh) | 方向滤波器的生成方法、音频处理方法、装置及存储介质 | |
CN117676002A (zh) | 音频处理方法及电子设备 | |
CN117041827A (zh) | 音频播放方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |