CN109327766B - 3d音效处理方法及相关产品 - Google Patents
3d音效处理方法及相关产品 Download PDFInfo
- Publication number
- CN109327766B CN109327766B CN201811115848.3A CN201811115848A CN109327766B CN 109327766 B CN109327766 B CN 109327766B CN 201811115848 A CN201811115848 A CN 201811115848A CN 109327766 B CN109327766 B CN 109327766B
- Authority
- CN
- China
- Prior art keywords
- target
- data
- channel data
- effect parameter
- reverberation effect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
Abstract
本申请实施例公开了一种3D音效处理方法及相关产品,该方法包括:获取声源的单声道数据;确定所述单声道数据对应的目标内容场景类型;根据所述目标内容场景类型确定目标混响效果参数;依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。采用本申请实施例能够确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
Description
技术领域
本申请涉及虚拟/增强现实技术领域,具体涉及一种3D音效处理方法及相关产品。
背景技术
随着电子设备(如手机、平板电脑等)的大量普及应用,电子设备能够支持的应用越来越多,功能越来越强大,电子设备向着多样化、个性化的方向发展,成为用户生活中不可缺少的电子用品。
随着技术发展,虚拟现实在电子设备中也得到了迅猛发展,然而,虚拟现实产品中,现有技术中耳机接收的音频数据往往是2D音频数据,因此,无法给用户带来声音的真实感,降低了用户体验。
发明内容
本申请实施例提供了一种3D音效处理方法及相关产品,能够合成3D音效,提升用户体验。
第一方面,本申请实施例提供一种3D音效处理方法,包括:
获取声源的单声道数据;
确定所述单声道数据对应的目标内容场景类型;
根据所述目标内容场景类型确定目标混响效果参数;
依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
第二方面,本申请实施例提供了一种3D音效处理装置,所述3D音效处理装置包括:获取单元、第一确定单元、第二确定单元和处理单元,其中,
所述获取单元,用于获取声源的单声道数据;
所述第一确定单元,用于确定所述单声道数据对应的目标内容场景类型;
所述第二确定单元,用于根据所述目标内容场景类型确定目标混响效果参数;
所述处理单元,用于依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
可以看出,本申请实施例中所描述的3D音效处理方法及相关产品,获取声源的单声道数据,确定单声道数据对应的目标内容场景类型,根据目标内容场景类型确定目标混响效果参数,依据目标混响效果参数对单声道数据进行处理,得到目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种电子设备的结构示意图;
图1B是本申请实施例公开的一种3D音效处理方法的流程示意图;
图1C是本申请实施例公开的多路双声道数据划分方式的演示示意图;
图1D是本申请实施例公开的一种3D音效处理方法的演示示意图;
图1E是本申请实施例公开的另一种3D音效处理方法的演示示意图;
图2是本申请实施例公开的另一种3D音效处理方法的流程示意图;
图3是本申请实施例公开的另一种3D音效处理方法的流程示意图;
图4是本申请实施例公开的另一种电子设备的结构示意图;
图5是本申请实施例公开的一种3D音效处理装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以包括各种具有无线通信功能的手持设备(如智能手机)、车载设备、虚拟现实(virtual reality,VR)/增强现实(augmentedreality,AR)设备,可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(user equipment,UE),移动台(mobile station,MS),终端设备(terminal device)、研发/测试平台、服务器等等。为方便描述,上面提到的设备统称为电子设备。
具体实现中,本申请实施例中,电子设备可对音频数据(声源发出的声音)使用HRTF(Head Related Transfer Function,头相关变换函数)滤波器进行滤波,得到虚拟环绕声,也称之为环绕声,或者全景声,实现一种三维立体音效。HRTF在时间域所对应的名称是HRIR(Head Related Impulse Response)。或者将音频数据与双耳房间脉冲响应(Binaural Room Impulse Response,BRIR)做卷积,双耳房间脉冲响应由三个部分组成:直达声,早期反射声和混响(reverb)。
请参阅图1A,图1A是本申请实施例提供了一种电子设备的结构示意图,电子设备包括控制电路和输入-输出电路,输入输出电路与控制电路连接。
其中,控制电路可以包括存储和处理电路。该存储和处理电路中的存储电路可以是存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程只读存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。存储和处理电路中的处理电路可以用于控制电子设备的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
存储和处理电路可用于运行电子设备中的软件,例如播放来电提示响铃应用程序、播放短消息提示响铃应用程序、播放闹钟提示响铃应用程序、播放媒体文件应用程序、互联网协议语音(voice over internet protocol,VOIP)电话呼叫应用程序、操作系统功能等。这些软件可以用于执行一些控制操作,例如,播放来电提示响铃、播放短消息提示响铃、播放闹钟提示响铃、播放媒体文件、进行语音电话呼叫以及电子设备中的其它功能等,本申请实施例不作限制。
其中,输入-输出电路可用于使电子设备实现数据的输入和输出,即允许电子设备从外部设备接收数据和允许电子设备将数据从电子设备输出至外部设备。
输入-输出电路可以进一步包括传感器。传感器可以包括环境光传感器,基于光和电容的红外接近传感器,超声波传感器,触摸传感器(例如,基于光触摸传感器和/或电容式触摸传感器,其中,触摸传感器可以是触控显示屏的一部分,也可以作为一个触摸传感器结构独立使用),加速度传感器,重力传感器,和其它传感器等。输入-输出电路还可以进一步包括音频组件,音频组件可以用于为电子设备提供音频输入和输出功能。音频组件还可以包括音调发生器以及其它用于产生和检测声音的组件。
输入-输出电路还可以包括一个或多个显示屏。显示屏可以包括液晶显示屏,有机发光二极管显示屏,电子墨水显示屏,等离子显示屏,使用其它显示技术的显示屏中一种或者几种的组合。显示屏可以包括触摸传感器阵列(即,显示屏可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
输入-输出电路还可以进一步包括通信电路可以用于为电子设备提供与外部设备通信的能力。通信电路可以包括模拟和数字输入-输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信电路中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信电路中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(near field communication,NFC)的电路。例如,通信电路可以包括近场通信天线和近场通信收发器。通信电路还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
输入-输出电路还可以进一步包括其它输入-输出单元。输入-输出单元可以包括按钮,操纵杆,点击轮,滚动轮,触摸板,小键盘,键盘,照相机,发光二极管和其它状态指示器等。
其中,电子设备还可以进一步包括电池(未图示),电池用于给电子设备提供电能。
下面对本申请实施例进行详细介绍。
请参阅图1B,图1B是本申请实施例公开的一种3D音效处理方法的流程示意图,应用于上述图1A所描述的电子设备,该3D音效处理方法包括如下步骤101-103。
101、获取声源的单声道数据。
其中,本申请实施例可应用于虚拟现实/增强现实场景,或者,3D录音场景。本申请实施例中,声源可以为虚拟场景中一发声体,例如,游戏场景中的一个飞机,声源可以为固定声源,或者,移动声源,或者,声源还可以为物理环境中的发声体。
102、确定所述单声道数据对应的目标内容场景类型。
其中,本申请实施例中,内容场景类型可以为以下至少一种:电影、人生、娱乐、军事、生活、天文、地理等等,在此不做限定。例如,每一单声道数据可对应一个频段,不同的频段可以对应不同的内容场景类型,具体地,电子设备中预先存储频段与内容场景类型之间的映射关系,进而,依据该映射关系确定单声道数据的频段对应的目标内容场景类型。
可选地,上述步骤102,确定所述单声道数据对应的目标内容场景类型,可包括如下步骤:
21、对所述单声道数据进行语义解析,得到多个关键字;
22、按照预设的关键字与内容场景类型之间的映射关系,确定所述多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型;
23、将所述多个内容场景类型中出现次数最多的内容场景类型作为所述目标内容场景类型。
其中,单声道数据为音频数据,因此,电子设备可对单声道数据进行语义解析,得到多个关键字,电子设备中还可以预先存储预设的关键字与内容场景类型之间的映射关系,进而,依据该确定多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型,将多个内容场景类型中出现次数最多的内容场景类型作为目标内容场景类型。
103、根据所述目标内容场景类型确定目标混响效果参数。
其中,上述混响效果参数可以包括以下至少一种:输入电平、低频切点、高频切点、早反射时间、扩散程度、低混比率、残响时间、高频衰点、分频点、原始干声音量、早反射声音量、混响音量、声场宽度、输出声场、尾音等等,在此不作限定。具体实现中,不同的内容场景,可对应不同的混响效果参数,这样的话,在不同的场景下,混响效果也不一样,能够实现与场景相宜的混响效果,3D感更加真实。
可选地,上述步骤103,根据所述目标内容场景类型确定目标混响效果参数,可按照如下方式实施:
按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的所述目标混响效果参数。
其中,电子设备中可以预先存储预设的内容场景类型与混响效果参数之间的映射关系,进而,依据该映射关系确定目标内容场景类型对应的目标混响效果参数。
104、依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
其中,电子设备可基于HRTF算法对单声道数据进行处理,得到双声道数据,另外,还可以通过目标混响效果参数对双声道数据进行处理,得到混响双声道数据。
可选地,上述步骤104,依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据,可包括如下步骤:
41、获取所述声源的第一三维坐标;
42、获取目标对象的第二三维坐标,所述第一三维坐标与所述第二三维坐标基于同一坐标原点;
43、依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
其中,以虚拟场景为例,由于虚拟场景中每一物体均可以对应一个三维坐标,因此,可以获取声源的第一三维坐标,在声源发出声音时,则可以获取生源产生的单声道数据。其中,目标对象也可以对应一个三维坐标,即第二三维坐标,当然,第一三维坐标与第二三维坐标为不同的位置,且第一三维坐标与第二三维坐标基于同一坐标原点。进而,依据第一三维坐标、第二三维坐标以及单声道数据、目标混响效果参数生成目标混响双声道数据,具体地,可以通过HRTF算法实现。
可选地,在所述目标对象处于游戏场景时,上述步骤42,获取目标对象的第二三维坐标,可包括如下步骤:
421、获取所述游戏场景对应的地图;
422、在所述地图中确定所述目标对象对应的坐标位置,得到所述第二三维坐标。
其中,在目标对象处于游戏场景时,目标对象可视为游戏中一角色,当然,具体实现中,游戏场景可对应一三维地图,因此,电子设备可以获取游戏场景对应的地图,并在地图中确定目标对象对应的坐标位置,得到第二三维坐标,如此,针对不同的游戏,可实时知晓角色位置,在本申请实施例中,针对角色具体位置,能够生成3D音效,让用户在游戏时,能够身临其境,感觉游戏世界更为逼真。
可选地,上述步骤43,依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据,可包括如下步骤:
431、将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
432、根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据。
其中,声源的原始声音数据为单声道数据,通过算法处理(例如,HRTF算法),则可以得到双声道数据,由于在现实环境中,声音是沿着各个方向进行传播,当然,在传播过程中,也会出现反射、折射、干涉、衍射等现象,因此,本申请实施例中,用于最终合成目标双声道数据的仅仅为经过第一三维坐标与第二三维坐标之间的多路双声道数据,根据目标混响效果参数将该多路双声道数据合成目标混响双声道数据。
可选地,上述步骤432,根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据,可包括如下步骤:
A11、以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
A12、将所述第一双声道数据集合进行合成,得到第一单声道数据;
A13、将所述第二双声道数据集合进行合成,得到第二单声道数据;
A14、根据所述目标混响效果参数将所述第一单声道数据、所述第二单声道数据进行合成,得到所述混响双声道数据。
其中,在知晓第一三维坐标,第二三维坐标之后,可以第一三维坐标与第二三维坐标为轴线作横截面,由于声音传播方向一定,传播轨迹也会沿着一定的对称轴具备一定的对称性,如图1C所示,第一三维坐标与第二三维坐标形成轴线,以该轴线作横截面,可以将多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,不考虑外在因素,例如,折射,反射,衍射等情况,则第一双声道数据集合与第二双声道数据集合也可以是包含相同路数的双声道数据,且不同集合的双声道数据也是对称关系,第一双声道数据集合、第二声道数据集合均包括至少一路双声道数据,具体实现中,电子设备可将第一双声道数据集合进行合成,得到第一单声道数据,电子设备可以包括左右耳机,第一单声道数据可以主要由左耳机播放,相应地,电子设备可将第二双声道数据集合进行合成,得到第二单声道数据,第二单声道数据可以主要由右耳机播放,最后,根据目标混响效果参数将第一单声道数据、第二单声道数据进行合成,得到目标混响声道数据,具体地,如图1D所示,电子设备可将单声道数据(例如,第一单声道数据、第二单声道数据)进行声道处理(声道处理主要是指将单声道数据转变为双声道数据),得到2个双声道数据,以及依据目标混响效果参数对各路单声道数据进行处理,得到混响音频数据,将2个双声道数据以及混响音频数据进行合成,得到目标混响声道数据。
可选地,上述步骤4322,将所述第一双声道数据集合进行合成,得到第一单声道数据,可包括如下步骤:
B1、将所述第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值;
B2、从所述多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值;
B3、确定所述多个第一目标能量值对应的第一双声道数据,将所述第一双声道数据进行合成,得到所述第一单声道数据。
其中,上述第一能量阈值可以由用户自行设置或者系统默认。具体实现中,电子设备可将第一双声道数据集合中每一路双声道数据的能量值,得到多个能量值,进而,从多个能量值中选取大于第一能量阈值的能量值,得到多个第一目标能量值,确定多个第一目标能量值对应的第一双声道数据,将第一双声道数据进行合成,得到第一单声道数据。
可选地,基于与上述步骤A1-步骤A3,也可以实现上述步骤4323,在此不再赘述。
可选地,在上述步骤41-步骤43之间,还可以包括如下步骤:
获取所述目标对象的面部朝向;
则,上述步骤43,依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据,可按照如下方式实施:
依据所述面部朝向、所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
其中,具体实现中,用户不同的面部朝向,则听到的3D音效也不一样,鉴于此,本申请实施例中,则考虑目标对象的面部朝向,电子设备可检测目标对象的面部朝向,具体地,若是游戏场景,则可以检测目标对象的相对于声源的朝向作为目标对象的面部朝向,若电子设备为是考虑用户头戴设备,例如,头戴式虚拟现实眼镜、虚拟现实头盔、虚拟现实头带显示设备等。人头方向的检测可以使用多种传感器,包括但不限于电阻式传感器、力学传感器、光敏传感器、超声波传感器、肌肉传感器等,在此不做限定。可以是其中一种传感器,也可以是其中几种传感器的组合,可以是一个传感器还可以是几个传感器的组合。人头方向的检测可以按照每隔预设时间间隔进行检测,预设时间间隔可以由用户自行设置或者系统默认。
可选地,上述步骤432,根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据,可包括如下步骤:
A21、确定多路双声道数据中每一路双声道数据的能量值,得到多个能量值;
A22、按照预设的能量值与混响效果参数调节系数之间的映射关系,确定所述多个能量值中每一能量值对应的混响效果参数调节系数,得到多个混响效果参数调节系数;
A23、依据所述多个混响效果参数调节系数、所述目标混响效果参数确定每一路双声道数据对应的混响效果参数,得到多个第一混响效果参数;
A24、依据所述多个第一混响效果参数对所述多路双声道数据进行处理,得到多路混响双声道数据,每一第一混响效果参数对应唯一一路双声道数据;
A25、将所述多路双声道数据进行合成,得到所述目标混响双声道数据。
其中,电子设备中可预先存储预设的能量值与混响效果参数调节系数之间的映射关系,上述混响效果参数调节系数用于混响效果参数,混响效果参数调节系数的取值范围在0~1之间,具体地,混响效果参数*混响效果参数调节系数=实际混响效果参数,并通过实际混响效果参数对相应双声道数据进行处理,得到混响双声道数据。具体实现中,电子设备可确定多路双声道数据中每一路双声道数据的能量值,得到多个能量值,并依据上述映射关系,确定多个能量值中每一能量值对应的混响效果参数调节系数,得到多个混响效果参数调节系数,依据多个混响效果参数调节系数、目标混响效果参数确定每一路双声道数据对应的混响效果参数,得到多个第一混响效果参数,即第一混响效果参数=目标混响效果参数*混响效果参数调节系数,进而,依据多个第一混响效果参数对多路双声道数据进行处理,得到多路混响双声道数据,每一第一混响效果参数对应唯一一路双声道数据,将多路双声道数据进行合成,得到目标混响双声道数据,这样依据每一路能量值,实现不同方向不同的混响效果,最终合成的混响双声道数据,立体感更加真实。具体地,如图1E所示,电子设备可将单声道数据(例如,第一单声道数据、第二单声道数据)进行声道处理(声道处理主要是指将单声道数据转变为双声道数据),得到多个双声道数据,以及依据混响效果参数对各路声道数据进行处理,得到多个混响音频数据,将多个双声道数据以及多个混响音频数据进行合成,得到目标混响声道数据。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的单声道数据,确定单声道数据对应的目标内容场景类型,根据目标内容场景类型确定目标混响效果参数,依据目标混响效果参数对单声道数据进行处理,得到目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
与上述一致地,图2是本申请实施例公开的一种3D音效处理方法的流程示意图。应用于如图1A所示的电子设备,该3D音效处理方法包括如下步骤201-206。
201、获取声源的单声道数据。
202、确定所述单声道数据对应的目标内容场景类型。
203、根据所述目标内容场景类型确定目标混响效果参数。
204、获取所述声源的第一三维坐标。
205、获取目标对象的第二三维坐标,所述第一三维坐标与所述第二三维坐标基于同一坐标原点。
206、依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
其中,上述步骤201-步骤206的具体描述可以参照图1B所描述的3D音效处理方法的相应描述,在此不再赘述。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的单声道数据,确定单声道数据对应的目标内容场景类型,根据目标内容场景类型确定目标混响效果参数,获取声源的第一三维坐标,获取目标对象的第二三维坐标,,第一三维坐标与第二三维坐标基于同一坐标原点,依据第一三维坐标、第二三维坐标以及单声道数据、目标混响效果参数生成目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
与上述一致地,图3是本申请实施例公开的一种3D音效处理方法的流程示意图。应用于图1A所示的电子设备,该3D音效处理方法包括如下步骤301-306。
301、获取声源的单声道数据。
302、对所述单声道数据进行语义解析,得到多个关键字。
303、按照预设的关键字与内容场景类型之间的映射关系,确定所述多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型。
304、将所述多个内容场景类型中出现次数最多的内容场景类型作为目标内容场景类型。
305、按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的目标混响效果参数。
306、依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
其中,上述步骤301-步骤306的具体描述可以参照图1B所描述的3D音效处理方法的相应描述,在此不再赘述。
可以看出,本申请实施例中所描述的3D音效处理方法,获取声源的单声道数据,对单声道数据进行语义解析,得到多个关键字,按照预设的关键字与内容场景类型之间的映射关系,确定多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型,将多个内容场景类型中出现次数最多的内容场景类型作为目标内容场景类型,按照预设的内容场景类型与混响效果参数之间的映射关系,确定目标内容场景类型对应的目标混响效果参数,依据目标混响效果参数对单声道数据进行处理,得到目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
请参阅图4,图4是本申请实施例公开的另一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行以下步骤的指令:
获取声源的单声道数据;
确定所述单声道数据对应的目标内容场景类型;
根据所述目标内容场景类型确定目标混响效果参数;
依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
可以看出,本申请实施例中所描述的电子设备,获取声源的单声道数据,确定单声道数据对应的目标内容场景类型,根据目标内容场景类型确定目标混响效果参数,依据目标混响效果参数对单声道数据进行处理,得到目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
在一个可能的示例中,在所述确定所述单声道数据对应的目标内容场景类型方面,上述程序包括用于执行以下步骤的指令:
对所述单声道数据进行语义解析,得到多个关键字;
按照预设的关键字与内容场景类型之间的映射关系,确定所述多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型;
将所述多个内容场景类型中出现次数最多的内容场景类型作为所述目标内容场景类型。
在一个可能的示例中,在所述根据所述目标内容场景类型确定目标混响效果参数方面,上述程序包括用于执行以下步骤的指令:
按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的所述目标混响效果参数。
在一个可能的示例中,在所述依据所述目标混响效果参数对所述单声道数据进行处理,得到目标双声道数据方面,上述程序包括用于执行以下步骤的指令:
获取所述声源的第一三维坐标;
获取目标对象的第二三维坐标,所述第一三维坐标与所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
在一个可能的示例中,在所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据方面,上述程序包括用于执行以下步骤的指令:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据。
在一个可能的示例中,在所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据方面,上述程序包括用于执行以下步骤的指令:
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
根据所述目标混响效果参数将所述第一单声道数据、所述第二单声道数据进行合成,得到所述混响双声道数据。
在一个可能的示例中,在所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据方面,上述程序包括用于执行以下步骤的指令:
确定多路双声道数据中每一路双声道数据的能量值,得到多个能量值;
按照预设的能量值与混响效果参数调节系数之间的映射关系,确定所述多个能量值中每一能量值对应的混响效果参数调节系数,得到多个混响效果参数调节系数;
依据所述多个混响效果参数调节系数、所述目标混响效果参数确定每一路双声道数据对应的混响效果参数,得到多个第一混响效果参数;
依据所述多个第一混响效果参数对所述多路双声道数据进行处理,得到多路混响双声道数据,每一第一混响效果参数对应唯一一路双声道数据;
将所述多路双声道数据进行合成,得到所述目标混响双声道数据。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
请参阅图5,图5是本申请实施例公开的一种3D音效处理装置的结构示意图,应用于图1A所示的电子设备,所述3D音效处理装置500包括:获取单元501、第一确定单元502、第二确定单元503和处理单元504,其中,
所述获取单元501,用于获取声源的单声道数据;
所述第一确定单元502,用于确定所述单声道数据对应的目标内容场景类型;
所述第二确定单元503,用于根据所述目标内容场景类型确定目标混响效果参数;
所述处理单元504,用于依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
在一个可能的示例中,在所述确定所述单声道数据对应的目标内容场景类型方面,所述第一确定单元502具体用于:
对所述单声道数据进行语义解析,得到多个关键字;
按照预设的关键字与内容场景类型之间的映射关系,确定所述多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型;
将所述多个内容场景类型中出现次数最多的内容场景类型作为所述目标内容场景类型。
在一个可能的示例中,在所述根据所述目标内容场景类型确定目标混响效果参数方面,所述第二确定单元503具体用于:
按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的所述目标混响效果参数。
在一个可能的示例中,在所述依据所述目标混响效果参数对所述单声道数据进行处理,得到目标双声道数据方面,所述处理单元504具体用于:
获取所述声源的第一三维坐标;
获取目标对象的第二三维坐标,所述第一三维坐标与所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
在一个可能的示例中,在所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据方面,所述处理单元504具体用于:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据。
在一个可能的示例中,在所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据方面,所述处理单元504具体用于:
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
根据所述目标混响效果参数将所述第一单声道数据、所述第二单声道数据进行合成,得到所述混响双声道数据。
在一个可能的示例中,在所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据方面,所述处理单元504具体用于:
确定多路双声道数据中每一路双声道数据的能量值,得到多个能量值;
按照预设的能量值与混响效果参数调节系数之间的映射关系,确定所述多个能量值中每一能量值对应的混响效果参数调节系数,得到多个混响效果参数调节系数;
依据所述多个混响效果参数调节系数、所述目标混响效果参数确定每一路双声道数据对应的混响效果参数,得到多个第一混响效果参数;
依据所述多个第一混响效果参数对所述多路双声道数据进行处理,得到多路混响双声道数据,每一第一混响效果参数对应唯一一路双声道数据;
将所述多路双声道数据进行合成,得到所述目标混响双声道数据。
可以看出,本申请实施例中所描述的3D音效处理装置,应用于电子设备,获取声源的单声道数据,确定单声道数据对应的目标内容场景类型,根据目标内容场景类型确定目标混响效果参数,依据目标混响效果参数对单声道数据进行处理,得到目标混响双声道数据,如此,可以确定与内容场景对应的混响效果参数,并依据该混响效果参数生成混响双声道数据,从而,实现了与内容场景相宜的混响效果,立体感更加真实。
需要注意的是,本申请实施例所描述的电子设备是以功能单元的形式呈现。这里所使用的术语“单元”应当理解为尽可能最宽的含义,用于实现各个“单元”所描述功能的对象例如可以是集成电路ASIC,单个电路,用于执行一个或多个软件或固件程序的处理器(共享的、专用的或芯片组)和存储器,组合逻辑电路,和/或提供实现上述功能的其他合适的组件。
其中,获取单元501、第一确定单元502、第二确定单元503和处理单元504可以是控制电路或处理器。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任何一种3D音效处理方法的部分或全部步骤。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种3D音效处理方法的部分或全部步骤。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、ROM、RAM、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (11)
1.一种3D音效处理方法,其特征在于,所述方法包括:
获取声源的单声道数据;
确定所述单声道数据对应的目标内容场景类型;
根据所述目标内容场景类型确定目标混响效果参数;
依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
2.根据权利要求1所述的方法,其特征在于,所述确定所述单声道数据对应的目标内容场景类型,包括:
对所述单声道数据进行语义解析,得到多个关键字;
按照预设的关键字与内容场景类型之间的映射关系,确定所述多个关键字中每一关键字对应的内容场景类型,得到多个内容场景类型;
将所述多个内容场景类型中出现次数最多的内容场景类型作为所述目标内容场景类型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标内容场景类型确定目标混响效果参数,包括:
按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的所述目标混响效果参数。
4.根据权利要求2所述的方法,其特征在于,所述根据所述目标内容场景类型确定目标混响效果参数,包括:
按照预设的内容场景类型与混响效果参数之间的映射关系,确定所述目标内容场景类型对应的所述目标混响效果参数。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述依据所述目标混响效果参数对所述单声道数据进行处理,得到目标双声道数据,包括:
获取所述声源的第一三维坐标;
获取目标对象的第二三维坐标,所述第一三维坐标与所述第二三维坐标基于同一坐标原点;
依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据。
6.根据权利要求5所述的方法,其特征在于,所述依据所述第一三维坐标、所述第二三维坐标以及所述单声道数据、所述目标混响效果参数生成目标混响双声道数据,包括:
将所述单声道数据生成所述第一三维坐标与所述第二三维坐标之间的多路双声道数据,每路双声道数据对应唯一传播方向;
根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据。
7.根据权利要求6所述的方法,其特征在于,所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据,包括:
以所述第一三维坐标与所述第二三维坐标为轴线作横截面,将所述多路双声道数据进行划分,得到第一双声道数据集合和第二双声道数据集合,所述第一双声道数据集合、所述第二双声道数据集合均包括至少一路双声道数据;
将所述第一双声道数据集合进行合成,得到第一单声道数据;
将所述第二双声道数据集合进行合成,得到第二单声道数据;
根据所述目标混响效果参数将所述第一单声道数据、所述第二单声道数据进行合成,得到所述混响双声道数据。
8.根据权利要求6所述的方法,其特征在于,所述根据所述目标混响效果参数将所述多路双声道数据合成所述目标混响双声道数据,包括:
确定多路双声道数据中每一路双声道数据的能量值,得到多个能量值;
按照预设的能量值与混响效果参数调节系数之间的映射关系,确定所述多个能量值中每一能量值对应的混响效果参数调节系数,得到多个混响效果参数调节系数;
依据所述多个混响效果参数调节系数、所述目标混响效果参数确定每一路双声道数据对应的混响效果参数,得到多个第一混响效果参数;
依据所述多个第一混响效果参数对所述多路双声道数据进行处理,得到多路混响双声道数据,每一第一混响效果参数对应唯一一路双声道数据;
将所述多路双声道数据进行合成,得到所述目标混响双声道数据。
9.一种3D音效处理装置,其特征在于,所述3D音效处理装置包括:获取单元、第一确定单元、第二确定单元和处理单元,其中,
所述获取单元,用于获取声源的单声道数据;
所述第一确定单元,用于确定所述单声道数据对应的目标内容场景类型;
所述第二确定单元,用于根据所述目标内容场景类型确定目标混响效果参数;
所述处理单元,用于依据所述目标混响效果参数对所述单声道数据进行处理,得到目标混响双声道数据。
10.一种电子设备,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-8任一项所述的方法中的步骤的指令。
11.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-8任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811115848.3A CN109327766B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
CN202110395644.5A CN113115175B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
PCT/CN2019/095292 WO2020063027A1 (zh) | 2018-09-25 | 2019-07-09 | 3d音效处理方法及相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811115848.3A CN109327766B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110395644.5A Division CN113115175B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109327766A CN109327766A (zh) | 2019-02-12 |
CN109327766B true CN109327766B (zh) | 2021-04-30 |
Family
ID=65265299
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811115848.3A Active CN109327766B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
CN202110395644.5A Active CN113115175B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110395644.5A Active CN113115175B (zh) | 2018-09-25 | 2018-09-25 | 3d音效处理方法及相关产品 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN109327766B (zh) |
WO (1) | WO2020063027A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108924705B (zh) * | 2018-09-25 | 2021-07-02 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109327766B (zh) * | 2018-09-25 | 2021-04-30 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101454825A (zh) * | 2006-09-20 | 2009-06-10 | 哈曼国际工业有限公司 | 用于提取和改变输入信号的混响内容的方法和装置 |
CN104360994A (zh) * | 2014-12-04 | 2015-02-18 | 科大讯飞股份有限公司 | 自然语言理解方法及系统 |
CN106303789A (zh) * | 2016-10-31 | 2017-01-04 | 维沃移动通信有限公司 | 一种录音方法、耳机及移动终端 |
CN106796792A (zh) * | 2014-07-30 | 2017-05-31 | 弗劳恩霍夫应用研究促进协会 | 用于增强音频信号的装置和方法、声音增强系统 |
CN107281753A (zh) * | 2017-06-21 | 2017-10-24 | 网易(杭州)网络有限公司 | 场景音效混响控制方法及装置、存储介质及电子设备 |
CN107360494A (zh) * | 2017-08-03 | 2017-11-17 | 北京微视酷科技有限责任公司 | 一种3d音效处理方法、装置、系统及音响系统 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007648A1 (en) * | 2001-04-27 | 2003-01-09 | Christopher Currell | Virtual audio system and techniques |
JP2005244786A (ja) * | 2004-02-27 | 2005-09-08 | Cyberlink Corp | ステレオ・サウンド・エフェクト生成装置及びその生成方法 |
FR2903562A1 (fr) * | 2006-07-07 | 2008-01-11 | France Telecom | Spatialisation binaurale de donnees sonores encodees en compression. |
WO2009046909A1 (en) * | 2007-10-09 | 2009-04-16 | Koninklijke Philips Electronics N.V. | Method and apparatus for generating a binaural audio signal |
CA2732079C (en) * | 2008-07-31 | 2016-09-27 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Signal generation for binaural signals |
EP2175670A1 (en) * | 2008-10-07 | 2010-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Binaural rendering of a multi-channel audio signal |
US8666081B2 (en) * | 2009-08-07 | 2014-03-04 | Lg Electronics, Inc. | Apparatus for processing a media signal and method thereof |
CN103329576B (zh) * | 2011-01-05 | 2016-12-07 | 皇家飞利浦电子股份有限公司 | 音频系统及其操作方法 |
US8958567B2 (en) * | 2011-07-07 | 2015-02-17 | Dolby Laboratories Licensing Corporation | Method and system for split client-server reverberation processing |
US9319819B2 (en) * | 2013-07-25 | 2016-04-19 | Etri | Binaural rendering method and apparatus for decoding multi channel audio |
CN104869524B (zh) * | 2014-02-26 | 2018-02-16 | 腾讯科技(深圳)有限公司 | 三维虚拟场景中的声音处理方法及装置 |
US10079941B2 (en) * | 2014-07-07 | 2018-09-18 | Dolby Laboratories Licensing Corporation | Audio capture and render device having a visual display and user interface for use for audio conferencing |
WO2016014254A1 (en) * | 2014-07-23 | 2016-01-28 | Pcms Holdings, Inc. | System and method for determining audio context in augmented-reality applications |
US9602947B2 (en) * | 2015-01-30 | 2017-03-21 | Gaudi Audio Lab, Inc. | Apparatus and a method for processing audio signal to perform binaural rendering |
US10231073B2 (en) * | 2016-06-17 | 2019-03-12 | Dts, Inc. | Ambisonic audio rendering with depth decoding |
CN107016990B (zh) * | 2017-03-21 | 2018-06-05 | 腾讯科技(深圳)有限公司 | 音频信号生成方法及装置 |
CN107889044B (zh) * | 2017-12-19 | 2019-10-15 | 维沃移动通信有限公司 | 音频数据的处理方法及装置 |
CN108040317B (zh) * | 2017-12-22 | 2019-09-27 | 南京大学 | 一种混合式听感声场扩宽方法 |
GB201810621D0 (en) * | 2018-06-28 | 2018-08-15 | Univ London Queen Mary | Generation of audio data |
CN109327766B (zh) * | 2018-09-25 | 2021-04-30 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN108924705B (zh) * | 2018-09-25 | 2021-07-02 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109104687B (zh) * | 2018-09-25 | 2021-04-13 | Oppo广东移动通信有限公司 | 音效处理方法及相关产品 |
-
2018
- 2018-09-25 CN CN201811115848.3A patent/CN109327766B/zh active Active
- 2018-09-25 CN CN202110395644.5A patent/CN113115175B/zh active Active
-
2019
- 2019-07-09 WO PCT/CN2019/095292 patent/WO2020063027A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101454825A (zh) * | 2006-09-20 | 2009-06-10 | 哈曼国际工业有限公司 | 用于提取和改变输入信号的混响内容的方法和装置 |
CN106796792A (zh) * | 2014-07-30 | 2017-05-31 | 弗劳恩霍夫应用研究促进协会 | 用于增强音频信号的装置和方法、声音增强系统 |
CN104360994A (zh) * | 2014-12-04 | 2015-02-18 | 科大讯飞股份有限公司 | 自然语言理解方法及系统 |
CN106303789A (zh) * | 2016-10-31 | 2017-01-04 | 维沃移动通信有限公司 | 一种录音方法、耳机及移动终端 |
CN107281753A (zh) * | 2017-06-21 | 2017-10-24 | 网易(杭州)网络有限公司 | 场景音效混响控制方法及装置、存储介质及电子设备 |
CN107360494A (zh) * | 2017-08-03 | 2017-11-17 | 北京微视酷科技有限责任公司 | 一种3d音效处理方法、装置、系统及音响系统 |
Non-Patent Citations (1)
Title |
---|
《虚拟现实中三维音频关键技术现状及发展》;张阳,赵俊哲,王进,史俊杰,王晶,谢湘;《电声技术》;20170612;第41卷(第6期);56-62 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020063027A1 (zh) | 2020-04-02 |
CN113115175A (zh) | 2021-07-13 |
CN113115175B (zh) | 2022-05-10 |
CN109327766A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10993063B2 (en) | Method for processing 3D audio effect and related products | |
CN109254752B (zh) | 3d音效处理方法及相关产品 | |
KR101614790B1 (ko) | 카메라 구동 오디오 공간화 | |
CN109327795B (zh) | 音效处理方法及相关产品 | |
US10496360B2 (en) | Emoji to select how or where sound will localize to a listener | |
CN109246580B (zh) | 3d音效处理方法及相关产品 | |
CN109121069B (zh) | 3d音效处理方法及相关产品 | |
CN108924705B (zh) | 3d音效处理方法及相关产品 | |
CN109104687B (zh) | 音效处理方法及相关产品 | |
CN109327766B (zh) | 3d音效处理方法及相关产品 | |
CN111385728B (zh) | 一种音频信号处理方法及装置 | |
CN109327794B (zh) | 3d音效处理方法及相关产品 | |
CN108882112B (zh) | 音频播放控制方法、装置、存储介质及终端设备 | |
CN114339582B (zh) | 双通道音频处理、方向感滤波器生成方法、装置以及介质 | |
CN109286841B (zh) | 电影音效处理方法及相关产品 | |
CN109243413B (zh) | 3d音效处理方法及相关产品 | |
JP2008244773A (ja) | 移動体通信端末、および、プログラム | |
CN114630240B (zh) | 方向滤波器的生成方法、音频处理方法、装置及存储介质 | |
WO2023197646A1 (zh) | 一种音频信号处理方法及电子设备 | |
CN110428802B (zh) | 声音混响方法、装置、计算机设备及计算机存储介质 | |
CN117676002A (zh) | 音频处理方法及电子设备 | |
EP1617702A1 (en) | Portable electronic equipment with 3D audio rendering | |
CN117319889A (zh) | 音频信号的处理方法、装置、电子设备、及存储介质 | |
CN114765712A (zh) | 一种音频处理方法、装置、终端和计算机可读存储介质 | |
CN115250412A (zh) | 音频处理方法、装置、无线耳机及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |