CN116614762B - 一种球幕影院的音效处理方法及系统 - Google Patents
一种球幕影院的音效处理方法及系统 Download PDFInfo
- Publication number
- CN116614762B CN116614762B CN202310896735.6A CN202310896735A CN116614762B CN 116614762 B CN116614762 B CN 116614762B CN 202310896735 A CN202310896735 A CN 202310896735A CN 116614762 B CN116614762 B CN 116614762B
- Authority
- CN
- China
- Prior art keywords
- audio
- data
- audio source
- spherical screen
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims abstract description 167
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 230000005236 sound signal Effects 0.000 claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 92
- 239000011159 matrix material Substances 0.000 claims abstract description 91
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000004458 analytical method Methods 0.000 claims abstract description 43
- 230000001360 synchronised effect Effects 0.000 claims abstract description 14
- 238000012360 testing method Methods 0.000 claims description 25
- 230000004807 localization Effects 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 13
- 238000000513 principal component analysis Methods 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 7
- 230000003595 spectral effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005669 field effect Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000007664 blowing Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Abstract
本发明涉及音频处理领域,公开了一种球幕影院的音效处理方法及系统,用于提高球幕影院的音效质量。方法包括:对第一音频信号进行音频分发,得到每个音频源的第二音频信号;根据第一位置数据和第一距离数据计算第一音频源移动播放轨迹,并根据第二位置数据和第二距离数据计算第一音效补偿参数集合;根据第一音频源移动播放轨迹和第一音效补偿参数集合进行播放并采集多个实时音频数据;进行音频特征编码,生成音频特征编码矩阵,并将音频特征编码矩阵和视频画面数据输入环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合。
Description
技术领域
本发明涉及音频处理领域,尤其涉及一种球幕影院的音效处理方法及系统。
背景技术
随着科技的不断进步和人们对娱乐体验的不断追求,球幕影院作为一种新型的电影放映技术,具有强大的沉浸式效果和视听体验,受到了广泛关注和喜爱。
然而,传统的影院音效系统在球幕影院中的应用存在一些挑战。由于球幕影院具有特殊的环境和声学特性,传统的音效处理方法无法充分利用球幕环境,无法提供真正身临其境的音效感受。
发明内容
本发明提供了一种球幕影院的音效处理方法及系统,用于提高球幕影院的音效质量。
本发明第一方面提供了一种球幕影院的音效处理方法,所述球幕影院的音效处理方法包括:
对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号;
根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
通过所述第二音频源移动播放轨迹以及第二音效补偿参数集合对所述多个音频源进行动态音效调整。
结合第一方面,在本发明第一方面的第一实现方式中,所述对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息,包括:
获取球幕影院的球幕设备布局信息,并根据所述球幕设备布局信息确定多个音频源的初始定位信息;
分别对所述多个音频源进行音频测试,得到每个音频源的音频测试数据;
对所述音频检测数据进行音频预处理,并计算每个音频源对应的音频时间差数据;
根据所述音频时间差数据对所述多个音频源进行声源定位分析,得到每个音频源的目标定位信息,其中,所述目标定位信息包括:水平角度以及垂直角度。
结合第一方面,在本发明第一方面的第二实现方式中,所述对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据,包括:
将所述球幕影院的球幕中心作为原点,并将所述球幕影院的球幕表面作为参考平面,根据所述原点和所述参考平面构建球坐标系;
根据所述球坐标系,对所述水平角度以及所述垂直角度进行坐标转换,得到每个音频源的目标位置坐标,并将所述目标位置坐标作为每个音频源与球幕中心的第一位置数据;
根据所述第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据;
根据所述第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据;
根据所述第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。
结合第一方面,在本发明第一方面的第三实现方式中,所述对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号,包括:
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据;
对所述音频源数据进行声音增强和均衡器调整,得到第一音频信号;
对所述第一音频信号进行编码处理,得到编码音频信号;
对所述编码音频信号进行音频分发,得到每个音频源的第二音频信号。
结合第一方面,在本发明第一方面的第四实现方式中,所述根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合,包括:
获取每个第二音频信号的音频特性;
根据所述第一位置数据和所述第一距离数据对所述音频特性进行相位调整,得到每个第二音频信号的第一音频源移动播放轨迹;
根据所述音频特性,对所述第二位置数据和所述第二距离数据进行音效补偿参数分析,得到每个第二音频信号的第一音效补偿参数集合,其中,所述第一音效补偿参数集合包括:延迟补偿、音量补偿、方向补偿和回声补偿。
结合第一方面,在本发明第一方面的第五实现方式中,所述根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据,包括:
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行音频和视频同步播放;
基于所述球坐标系设置至少一个参考点位;
对所述至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。
结合第一方面,在本发明第一方面的第六实现方式中,所述对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合,包括:
对所述多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征;
对所述主成分音频特征进行编码,生成音频特征编码矩阵;
将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型,其中,所述环绕声处理模型包括:两层门限循环网络和两层全连接网络、编码网络以及解码网络;
通过所述两层门限循环网络对所述音频特征编码矩阵进行特征提取,得到第一特征状态矩阵,并通过所述两层全连接网络对所述第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹;
通过所述编码网络对所述音频特征编码矩阵和所述视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵,并通过所述解码网络对所述第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。
本发明第二方面提供了一种球幕影院的音效处理系统,所述球幕影院的音效处理系统包括:
定位模块,用于对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
计算模块,用于对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
分发模块,用于对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号;
处理模块,用于根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
采集模块,用于根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
分析模块,用于对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
调整模块,用于通过所述第二音频源移动播放轨迹以及第二音效补偿参数集合对所述多个音频源进行动态音效调整。
结合第二方面,在本发明第二方面的第一实现方式中,所述定位模块具体用于:
获取球幕影院的球幕设备布局信息,并根据所述球幕设备布局信息确定多个音频源的初始定位信息;
分别对所述多个音频源进行音频测试,得到每个音频源的音频测试数据;
对所述音频检测数据进行音频预处理,并计算每个音频源对应的音频时间差数据;
根据所述音频时间差数据对所述多个音频源进行声源定位分析,得到每个音频源的目标定位信息,其中,所述目标定位信息包括:水平角度以及垂直角度。
结合第二方面,在本发明第二方面的第二实现方式中,所述计算模块具体用于:
将所述球幕影院的球幕中心作为原点,并将所述球幕影院的球幕表面作为参考平面,根据所述原点和所述参考平面构建球坐标系;
根据所述球坐标系,对所述水平角度以及所述垂直角度进行坐标转换,得到每个音频源的目标位置坐标,并将所述目标位置坐标作为每个音频源与球幕中心的第一位置数据;
根据所述第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据;
根据所述第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据;
根据所述第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。
结合第二方面,在本发明第二方面的第三实现方式中,所述分发模块具体用于:
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据;
对所述音频源数据进行声音增强和均衡器调整,得到第一音频信号;
对所述第一音频信号进行编码处理,得到编码音频信号;
对所述编码音频信号进行音频分发,得到每个音频源的第二音频信号。
结合第二方面,在本发明第二方面的第四实现方式中,所述处理模块具体用于:
获取每个第二音频信号的音频特性;
根据所述第一位置数据和所述第一距离数据对所述音频特性进行相位调整,得到每个第二音频信号的第一音频源移动播放轨迹;
根据所述音频特性,对所述第二位置数据和所述第二距离数据进行音效补偿参数分析,得到每个第二音频信号的第一音效补偿参数集合,其中,所述第一音效补偿参数集合包括:延迟补偿、音量补偿、方向补偿和回声补偿。
结合第二方面,在本发明第二方面的第五实现方式中,所述采集模块具体用于:
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行音频和视频同步播放;
基于所述球坐标系设置至少一个参考点位;
对所述至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。
结合第二方面,在本发明第二方面的第六实现方式中,所述分析模块具体用于:
对所述多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征;
对所述主成分音频特征进行编码,生成音频特征编码矩阵;
将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型,其中,所述环绕声处理模型包括:两层门限循环网络和两层全连接网络、编码网络以及解码网络;
通过所述两层门限循环网络对所述音频特征编码矩阵进行特征提取,得到第一特征状态矩阵,并通过所述两层全连接网络对所述第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹;
通过所述编码网络对所述音频特征编码矩阵和所述视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵,并通过所述解码网络对所述第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。
本发明第三方面提供了一种球幕影院的音效处理设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述球幕影院的音效处理设备执行上述的球幕影院的音效处理方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的球幕影院的音效处理方法。
本发明提供的技术方案中,对第一音频信号进行音频分发,得到每个音频源的第二音频信号;根据第一位置数据和第一距离数据计算第一音频源移动播放轨迹,并根据第二位置数据和第二距离数据计算第一音效补偿参数集合;根据第一音频源移动播放轨迹和第一音效补偿参数集合进行播放并采集多个实时音频数据;进行音频特征编码,生成音频特征编码矩阵,并将音频特征编码矩阵和视频画面数据输入环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合,本发明能够准确地定位多个音频源并计算其位置信息,使得观众可以在全方位感受到音频的环绕包围,从而提升了观影的沉浸式体验。观众可以更加真实地感受到声音从各个方向传来,进一步融入到电影的故事情境中,通过对音频源数据进行音频渲染处理和音效补偿参数的调整,球幕影院的音效处理方法可以优化音频的质量和效果。观众可以享受到更加清晰、逼真、立体的音效效果,使得电影的场景和情节更加生动。球幕影院的音效处理方法能够实现音频和视频的准确分割和同步播放,使得观众在观影过程中不会出现声音和画面的不匹配情况,提供更加流畅和统一的观影体验。根据每个音频源的移动播放轨迹和音效补偿参数集合,球幕影院的音效处理方法可以实现对音效的动态调整,进而提高球幕影院的音效质量。
附图说明
图1为本发明实施例中球幕影院的音效处理方法的一个实施例示意图;
图2为本发明实施例中音频源定位的流程图;
图3为本发明实施例中位置计算的流程图;
图4为本发明实施例中环绕声和影像同步分析的流程图;
图5为本发明实施例中球幕影院的音效处理系统的一个实施例示意图;
图6为本发明实施例中球幕影院的音效处理设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种球幕影院的音效处理方法及系统,用于提高球幕影院的音效质量。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中球幕影院的音效处理方法的一个实施例包括:
S101、对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
可以理解的是,本发明的执行主体可以为球幕影院的音效处理系统,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,服务器获取球幕影院的球幕设备布局信息,包括球幕的形状、尺寸和安装位置等。这些信息可以通过实际测量或者设计规格获得。基于球幕设备布局信息,服务器确定每个音频源的初始定位信息。进行音频测试,并获取音频测试数据。在每个音频源处播放特定的测试音频,并使用麦克风阵列或多个麦克风进行采集。这样可以获得每个音频源的音频测试数据。对音频测试数据进行音频预处理,例如去除噪音、均衡化等处理,以提高后续分析的精度。然后,根据多个麦克风之间的音频时间差,计算每个音频源对应的音频时间差数据。利用音频时间差数据进行声源定位分析,得到每个音频源的目标定位信息,包括水平角度和垂直角度。常用的声源定位算法如交叉相关法和泛音追踪法。通过计算不同麦克风之间的时间差,服务器确定每个音频源相对于球幕中心的角度信息。例如,假设球幕影院的球幕半径为10米,球幕上共有8个音频源。根据球幕设备布局信息,服务器将这8个音频源分布在球幕的不同位置,比如4个音频源位于正前方,2个音频源位于左侧,2个音频源位于右侧。进行音频测试时,每个音频源分别播放特定的测试音频,并使用麦克风阵列采集音频数据。通过对采集到的音频数据进行预处理,去除噪音、均衡化等处理,然后计算不同麦克风之间的音频时间差数据。利用交叉相关法等声源定位算法,分析音频时间差数据,服务器得到每个音频源相对于球幕中心的水平角度和垂直角度信息。
S102、对目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
具体的,服务器将球幕影院的球幕中心作为原点,并将球幕表面作为参考平面构建球坐标系。在球坐标系中,服务器转换目标定位信息中的水平角度和垂直角度,以得到每个音频源的目标位置坐标。利用目标位置坐标作为每个音频源与球幕中心的第一位置数据,表示它们相对于球幕中心的位置。根据第一位置数据,服务器计算每个音频源与球幕中心的空间距离,得到第一距离数据。这可以通过计算球坐标系中每个音频源的径向距离来实现。根据第一位置数据,服务器计算每两个音频源之间的相对位置关系,得到第二位置数据。通过计算不同音频源之间的方位角和极角差值,服务器确定它们在球坐标系中的相对位置。基于第二位置数据,服务器计算每两个音频源之间的空间距离,得到第二距离数据。这可以通过计算球坐标系中不同音频源之间的欧氏距离或球面距离来实现。例如,假设球幕影院的球幕中心位于坐标原点,球幕半径为10米。服务器有两个音频源A和B,它们的目标定位信息中的水平角度分别为45°和120°,垂直角度分别为30°和60°。通过球坐标系的转换公式,服务器计算出音频源A的目标位置坐标和音频源B的目标位置坐标。利用这些目标位置坐标,服务器得到音频源A和B与球幕中心的第一位置数据。通过计算它们与球幕中心的空间距离,服务器得到第一距离数据。另外,根据第一位置数据,服务器计算音频源A和B之间的相对位置关系,得到第二位置数据。然后,基于第二位置数据,服务器计算它们之间的空间距离,得到第二距离数据。
S103、对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对音频源数据进行音频渲染处理,得到第一音频信号,以及对第一音频信号进行音频分发,得到每个音频源的第二音频信号;
需要说明的是,对待播放视频流进行音频和画面分割,将其分离为音频源数据和视频画面数据。这可以通过音频视频处理技术实现,例如使用音频提取算法和图像分离算法。对音频源数据进行声音增强和均衡器调整,以得到第一音频信号。声音增强技术可以用于提升音频质量、改善音频清晰度或增强音频效果。均衡器调整可以调节音频频谱的平衡,使其在不同频段上的音量和音质达到理想状态。对第一音频信号进行编码处理,以得到编码音频信号。编码处理可以包括音频压缩、编码格式转换或者其他音频编码技术,以便在传输或存储过程中减小数据量或提高效率。对编码音频信号进行音频分发,以得到每个音频源的第二音频信号。音频分发可以根据具体的系统需求进行,例如将编码音频信号通过网络传输到不同的音频输出设备或扬声器系统,以实现每个音频源的独立播放。例如,假设有一个球幕影院,其中有三个音频源和一个视频源。服务器对待播放的视频流进行音频和画面分割,分离出音频源数据和视频画面数据。对于音频源数据,服务器进行声音增强和均衡器调整处理,以优化音频效果,并得到第一音频信号。然后,服务器对第一音频信号进行编码处理,将其转换为适合传输或存储的编码音频信号。服务器根据系统需求进行音频分发,将编码音频信号传输到不同的音频输出设备或扬声器系统中,得到每个音频源的第二音频信号。这样,每个音频源就可以独立播放其对应的音频内容。
S104、根据第一位置数据和第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据第二位置数据和第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
具体的,获取每个第二音频信号的音频特性。音频特性可以包括音频的频率响应、声道平衡、音量级别等方面的特征。这些特性可以通过音频分析技术或音频特性提取算法来获取。根据第一位置数据和第一距离数据对音频特性进行相位调整,以得到每个第二音频信号的第一音频源移动播放轨迹。相位调整可以通过调整音频信号的相对延迟来模拟音源在空间中的移动。根据音频特性,对第二位置数据和第二距离数据进行音效补偿参数分析,以得到每个第二音频信号的第一音效补偿参数集合。这些音效补偿参数可以包括延迟补偿、音量补偿、方向补偿和回声补偿等。延迟补偿是根据音频源与球幕中心的距离差来调整音频信号的延迟,以模拟远近感。音量补偿是根据音频源与球幕中心的距离差来调整音频信号的音量,以模拟远近声音的强度差异。方向补偿是根据音频源的位置和观众所在位置之间的方向关系来调整音频信号的方向,以模拟声源的定位效果。回声补偿是根据音频源与球幕中心的距离差和反射特性来调整音频信号的回声效果,以增强环绕感和音场效果。例如,假设有一个球幕影院,其中有四个音频源A、B、C和D。根据第一位置数据和第一距离数据,服务器计算出每个音频源与球幕中心的距离以及它们在球幕上的位置。服务器获取每个音频源的音频特性,例如频率响应和音量级别。根据音频特性,服务器对第二位置数据进行分析,并根据音频源与观众所在位置的方向关系来调整音频信号的方向。根据音频源与球幕中心的距离差,服务器进行延迟补偿和音量补偿,以模拟声源的远近感和音量差异。服务器还可以根据球幕的反射特性和音频源的位置,调整音频信号的回声效果,增强环绕感和音场效果。
S105、根据第一音频源移动播放轨迹和第一音效补偿参数集合,对待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
具体的,根据第一音频源移动播放轨迹和第一音效补偿参数集合,对待播放视频流进行音频和视频同步播放。这意味着根据音频源的移动轨迹和音效补偿参数,调整视频的音频和画面的播放时间和效果,使其与音频源的位置和环境相匹配,实现音视频的同步播放。在球坐标系中设置至少一个参考点位。参考点位可以是球幕影院中的固定位置,例如前排中央位置或者两侧观众席中间位置。这些参考点位在空间中具有特定的位置坐标,用于作为参考基准,以便后续的实时音频数据采集。基于设置的参考点位,进行实时音频数据的采集。这可以通过麦克风阵列等音频采集设备来实现。根据参考点位的位置,确定合适的麦克风布置和方向,以获取多个位置的实时音频数据。通过采集多个实时音频数据,可以获得不同位置的声音信息。这些实时音频数据可以包含来自不同音频源的声音,以及环境中的反射声和混响等音频特征。这些数据可以用于后续的音频特征编码和环绕声处理。例如,假设有一个球幕影院,其中有两个音频源A和B。根据第一音频源移动播放轨迹和第一音效补偿参数集合,服务器对待播放视频流进行音频和视频同步播放,确保音频源A和B的声音与其移动轨迹和环境相匹配。在球坐标系中设置两个参考点位,一个位于球幕中央,另一个位于球幕左侧观众席的中间位置。然后,服务器使用麦克风阵列布置在球幕影院中,以采集实时音频数据。通过采集,服务器获取不同位置的声音信息,包括来自音频源A和B的声音以及反射声和混响等环境音。这些实时音频数据可以用于后续的音频特征编码和环绕声处理,以进一步优化音频效果,实现更加逼真的音场效果和环绕声体验。
S106、对多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将音频特征编码矩阵和视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
具体的,对多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征。这可以通过应用技术如主成分分析(PCA)等来提取每个音频数据的关键特征。对主成分音频特征进行编码,生成音频特征编码矩阵。这一步骤将主成分音频特征转化为矩阵形式,以便后续的处理和分析。随后,将音频特征编码矩阵和视频画面数据输入预置的环绕声处理模型。该环绕声处理模型可以包括两层门限循环网络、两层全连接网络、编码网络和解码网络等组件,用于进行环绕声和影像的同步分析。通过两层门限循环网络,对音频特征编码矩阵进行特征提取,得到第一特征状态矩阵。这一步骤能够捕捉到音频特征中的关键信息,并将其转化为可供进一步处理的状态矩阵。利用两层全连接网络,对第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹。这一步骤基于第一特征状态矩阵,通过学习相位的模式和变化趋势,推测音频源的移动轨迹。通过编码网络,对音频特征编码矩阵和视频画面数据进行特征提取和融合,得到第二特征状态矩阵。编码网络能够从音频和视频数据中提取出更高层次的特征信息,并将它们融合在一起。通过解码网络,对第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。解码网络能够分析第二特征状态矩阵中的影像同步参数,并推测出音效补偿参数,如延迟补偿、音量补偿、方向补偿和回声补偿等。例如,假设有一个球幕影院,其中有三个实时音频数据源A、B和C。服务器对这些音频数据进行主成分分析,提取它们的主成分音频特征,并生成音频特征编码矩阵。服务器将音频特征编码矩阵和视频画面数据输入预置的环绕声处理模型。通过两层门限循环网络和两层全连接网络,服务器提取出第一特征状态矩阵,并进行相位预测,得到音频源A、B和C的第二音频源移动播放轨迹。通过编码网络,服务器对音频特征编码矩阵和视频画面数据进行特征提取和融合,得到第二特征状态矩阵。通过解码网络,分析第二特征状态矩阵中的影像同步参数,并输出音效补偿参数集合。例如,根据分析结果,服务器可能得到以下信息:音频源A需要在播放过程中产生一定的延迟补偿,音频源B需要进行音量补偿,音频源C需要进行方向补偿。这些补偿参数将用于调整每个音频源的音效,以实现更加精确的环绕声效果。
S107、通过第二音频源移动播放轨迹以及第二音效补偿参数集合对多个音频源进行动态音效调整。
具体的,服务器通过第二音频源移动播放轨迹以及第二音效补偿参数集合,可以实现对多个音频源进行动态音效调整,以提供更加逼真、沉浸式的音频体验。在球幕影院等多声道音频环境中,动态音效调整能够使音频源随着场景变化而实时调整,使观众感受到更加真实的声场效果和音效表现。通过根据第二音频源移动播放轨迹调整音频源的位置,观众可以感受到音频源在场景中移动的效果。这样,观众可以在球幕影院中,通过音频源的位置调整,如从左边缓慢移动到右边,增强影片的沉浸感,营造身临其境的感觉。利用第二音效补偿参数集合进行实时音效调整可以解决音频源之间的差异。不同音频源可能受到场景、环境、设备等因素的影响,导致音频的延迟、音量、方向等方面存在差异。通过调整补偿参数,可以使所有音频源的音效表现更加统一和平衡。例如,在球幕影院中播放水下场景时,适当增加回声补偿参数,以模拟水下声音的特殊效果,提升观众的沉浸感。综合考虑第二音频源移动播放轨迹和第二音效补偿参数集合,可以实现动态音效调整策略。音频源的定位调整使观众感受到全方位的声音包围感,延迟补偿确保声音的到达时间与场景中物体的运动相匹配,音量补偿保持音频源之间的平衡。这样,观众可以在球幕影院中真实感受到音频的定位、延迟和音量的动态调整,提升观影体验。
本发明实施例中,对第一音频信号进行音频分发,得到每个音频源的第二音频信号;根据第一位置数据和第一距离数据计算第一音频源移动播放轨迹,并根据第二位置数据和第二距离数据计算第一音效补偿参数集合;根据第一音频源移动播放轨迹和第一音效补偿参数集合进行播放并采集多个实时音频数据;进行音频特征编码,生成音频特征编码矩阵,并将音频特征编码矩阵和视频画面数据输入环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合,本发明能够准确地定位多个音频源并计算其位置信息,使得观众可以在全方位感受到音频的环绕包围,从而提升了观影的沉浸式体验。观众可以更加真实地感受到声音从各个方向传来,进一步融入到电影的故事情境中,通过对音频源数据进行音频渲染处理和音效补偿参数的调整,球幕影院的音效处理方法可以优化音频的质量和效果。观众可以享受到更加清晰、逼真、立体的音效效果,使得电影的场景和情节更加生动。球幕影院的音效处理方法能够实现音频和视频的准确分割和同步播放,使得观众在观影过程中不会出现声音和画面的不匹配情况,提供更加流畅和统一的观影体验。根据每个音频源的移动播放轨迹和音效补偿参数集合,球幕影院的音效处理方法可以实现对音效的动态调整,进而提高球幕影院的音效质量。
在一具体实施例中,如图2所示,执行步骤S101的过程可以具体包括如下步骤:
S201、获取球幕影院的球幕设备布局信息,并根据球幕设备布局信息确定多个音频源的初始定位信息;
S202、分别对多个音频源进行音频测试,得到每个音频源的音频测试数据;
S203、对音频检测数据进行音频预处理,并计算每个音频源对应的音频时间差数据;
S204、根据音频时间差数据对多个音频源进行声源定位分析,得到每个音频源的目标定位信息,其中,目标定位信息包括:水平角度以及垂直角度。
具体的,服务器球幕影院的球幕设备布局信息是确定音频源定位的基础。通过对球幕设备的布局进行测量和记录,可以获取每个音频源的初始定位信息,即其在球幕影院中的位置坐标。这些位置坐标可以通过球坐标系来表示,包括水平角度和垂直角度。对多个音频源进行音频测试,以获取每个音频源的音频测试数据。这可以通过在球幕影院中播放特定的测试音频,并使用麦克风或传感器设备进行录音或测量得到。音频测试数据可以包括音频强度、频谱特征等信息。在获得音频测试数据后,需要对其进行音频预处理。音频预处理的目的是消除噪声、混响等干扰因素,提取出音频源的有效特征。这可以通过滤波、降噪、均衡化等信号处理技术来实现,以获得干净、清晰的音频数据。根据预处理后的音频数据,计算每个音频源对应的音频时间差数据。音频时间差是指不同音频源之间声音到达麦克风的时间差。通过比较不同音频源之间的声音到达时间,可以得到它们之间的时间差数据。这可以通过信号处理技术中的交叉相关或互相关方法来计算。根据音频时间差数据进行声源定位分析,以得到每个音频源的目标定位信息。通过使用声源定位算法,可以根据音频时间差数据计算出音频源相对于观众的具体位置。这个位置信息可以通过球坐标系中的水平角度和垂直角度来表示。这些角度信息可以帮助确定音频源在球幕影院中的准确位置。例如,假设球幕影院的球幕设备布局信息确定了三个音频源的初始定位信息,分别位于球幕的左上角、右上角和正中央位置。进行音频测试后,得到了每个音频源的音频测试数据。经过音频预处理和计算音频时间差数据,得到了音频源之间的时间差信息。使用声源定位算法对这些时间差数据进行分析,可以计算出每个音频源的目标定位信息。例如,分析结果可能显示位于球幕左上角的音频源相对于观众的水平角度为30度,垂直角度为45度;位于球幕右上角的音频源相对于观众的水平角度为-20度,垂直角度为50度;位于球幕正中央的音频源相对于观众的水平角度为0度,垂直角度为0度。通过这些目标定位信息,可以确定每个音频源在球幕影院中的具体位置,以便进行后续的音频处理和定位效果的呈现。这样,观众可以在球幕影院中感受到来自不同方向的声音,增强沉浸感和身临其境的感觉。
在一具体实施例中,如图3所示,执行步骤S102的过程可以具体包括如下步骤:
S301、将球幕影院的球幕中心作为原点,并将球幕影院的球幕表面作为参考平面,根据原点和参考平面构建球坐标系;
S302、根据球坐标系,对水平角度以及垂直角度进行坐标转换,得到每个音频源的目标位置坐标,并将目标位置坐标作为每个音频源与球幕中心的第一位置数据;
S303、根据第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据;
S304、根据第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据;
S305、根据第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。
具体的,服务器球幕影院的球幕中心被设定为原点,而球幕表面被用作参考平面。通过将球幕影院的球幕中心作为原点,并根据球幕表面构建球坐标系,可以建立一个合适的坐标系统来描述音频源在球幕影院中的位置。根据球坐标系,对每个音频源的水平角度和垂直角度进行坐标转换,以得到每个音频源的目标位置坐标。这可以通过将水平角度和垂直角度转换为球坐标系中的对应坐标值来实现。例如,水平角度可以对应球坐标系中的经度,垂直角度可以对应纬度。通过坐标转换,服务器获得每个音频源与球幕中心的第一位置数据,即其在球坐标系中的目标位置坐标。随后,根据第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据。这可以通过球坐标系中的距离公式来计算,即利用音频源的目标位置坐标和球幕中心的坐标之间的距离公式。根据第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据。这可以通过计算音频源之间的相对角度差来实现。通过对比每个音频源的水平角度和垂直角度,可以确定它们之间的相对位置关系,如左右、上下等。根据第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。通过使用第二位置数据中的相对角度差,结合球坐标系中的距离公式,可以计算出每两个音频源之间的空间距离。例如,假设球幕影院的球幕中心作为原点,球幕表面作为参考平面。在球坐标系中,通过坐标转换,将一个音频源的水平角度设定为30度,垂直角度设定为45度。经过转换,可以得到该音频源的目标位置坐标。根据第一位置数据,计算出该音频源与球幕中心的空间距离为5米。计算与该音频源相邻的另一个音频源的相对位置关系。假设这个相邻音频源的水平角度为40度,垂直角度为50度。通过对比两个音频源的角度,可以确定它们之间的相对位置关系为右侧。根据第二位置数据和球坐标系中的距离公式,计算出这两个音频源之间的空间距离为3米。通过这些计算和转换,可以获得每个音频源与球幕中心的位置信息以及音频源之间的相对位置关系和空间距离,从而实现对多个音频源的准确定位和空间分析。
在一具体实施例中,执行步骤S103的过程可以具体包括如下步骤:
(1)对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据;
(2)对音频源数据进行声音增强和均衡器调整,得到第一音频信号;
(3)对第一音频信号进行编码处理,得到编码音频信号;
(4)对编码音频信号进行音频分发,得到每个音频源的第二音频信号。
具体的,服务器针对待播放的视频流,进行音频和画面分割,以分离出音频源数据和视频画面数据。这可以通过音频视频分离技术实现,该技术可根据视频流的特征和编码方式,将其分割成音频数据和视频帧序列。对音频源数据进行声音增强和均衡器调整。声音增强技术可以通过降噪、音量增益和音频清晰化等算法来改善音频质量,提升听觉体验。均衡器调整可以根据音频源的特点和需求,调整频率响应,使其更好地适应播放环境和用户偏好。经过声音增强和均衡器调整后,得到第一音频信号,即经过优化处理后的音频源数据。对第一音频信号进行编码处理。音频编码是将音频信号转换成数字格式的过程,以减小存储空间和传输带宽的需求。常见的音频编码算法包括MP3、AAC等。通过选择合适的音频编码算法和参数设置,将第一音频信号转换为编码音频信号。对编码音频信号进行音频分发,以获得每个音频源的第二音频信号。音频分发是将编码音频信号传输到各个目标设备或接收端的过程。这可以通过网络传输、无线传输或有线传输等方式实现。每个目标设备或接收端接收到编码音频信号后,进行解码和解析,即可得到每个音频源的第二音频信号。例如,假设有一个视频流包含两个音频源和相应的视频画面。通过音频视频分割,得到音频源数据和视频画面数据。针对音频源数据,对其进行声音增强和均衡器调整处理。例如,对一个音频源进行降噪处理,减少背景噪音的干扰;调整均衡器,增强低音和高音的表现,使其更加清晰和平衡。经过处理后,得到第一音频信号,即优化后的音频源数据。然后,对第一音频信号进行编码处理,选择合适的音频编码算法进行压缩和转换,得到编码音频信号。通过网络传输,将编码音频信号分发到各个目标设备或接收端。每个目标设备或接收端接收到编码音频信号后,进行解码和解析,即可得到每个音频源的第二音频信号。
在一具体实施例中,执行步骤S104的过程可以具体包括如下步骤:
(1)获取每个第二音频信号的音频特性;
(2)根据第一位置数据和第一距离数据对音频特性进行相位调整,得到每个第二音频信号的第一音频源移动播放轨迹;
(3)根据音频特性,对第二位置数据和第二距离数据进行音效补偿参数分析,得到每个第二音频信号的第一音效补偿参数集合,其中,第一音效补偿参数集合包括:延迟补偿、音量补偿、方向补偿和回声补偿。
具体的,服务器针对每个第二音频信号,获取其音频特性。音频特性包括频率、振幅、相位等参数,用于描述音频信号的特征。可以通过音频分析算法,如傅里叶变换或小波变换等,对第二音频信号进行频谱分析,提取出其音频特性。根据第一位置数据和第一距离数据,进行相位调整。相位调整是根据音频源的位置和距离关系,对音频信号的相位进行调整,以模拟音频源的移动轨迹。通过计算每个音频源与球幕中心的相对位置,以及与球幕中心的空间距离,可以对音频信号的相位进行适当调整,使其在球幕影院中呈现出相应的移动播放轨迹。根据音频特性对第二位置数据和第二距离数据进行音效补偿参数分析。音效补偿参数是为了解决音频源之间的差异,如延迟、音量、方向和回声等方面的差异。通过分析音频特性,可以确定每个音频源所需的音效补偿参数集合,以实现音频的统一和平衡。延迟补偿参数用于调整音频源的到达时间,以保证与场景中物体的运动相匹配。例如,在球幕影院中播放一个飞行的飞机场景,通过延迟补偿参数,可以使飞机的引擎声在飞行方向上达到观众的耳朵之前,以增强真实感。音量补偿参数用于保持音频源之间的平衡,使其在不同位置和距离下具有一致的音量水平。例如,在球幕影院中,如果一个音频源位于观众较远的位置,通过音量补偿参数,可以增加其音量,以保持与其他音频源的平衡。方向补偿参数用于调整音频源的声音方向,以模拟音频源的定位效果。例如,在球幕影院中播放一个奔跑的人的声音,通过方向补偿参数,可以使声音的方向从左侧逐渐转向右侧,以符合奔跑者的运动轨迹。回声补偿参数用于模拟特殊环境下的声音回声效果,以增强沉浸感。例如,在球幕影院中播放一个深海场景,适当增加回声补偿参数,可以模拟水下声音的回声效果,使观众感受到更加真实的音效体验。在本实例中,可以得到每个第二音频信号的第一音频源移动播放轨迹以及第一音效补偿参数集合。这样的处理策略可以使音频源的位置、相位和音效表现得到调整和补偿,从而提供更加逼真、沉浸式的音频体验。
在一具体实施例中,执行步骤S105的过程可以具体包括如下步骤:
(1)根据第一音频源移动播放轨迹和第一音效补偿参数集合,对待播放视频流进行音频和视频同步播放;
(2)基于球坐标系设置至少一个参考点位;
(3)对至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。
具体的,服务器根据第一音频源移动播放轨迹和第一音效补偿参数集合,对待播放的视频流进行音频和视频的同步播放。音频和视频同步播放是确保音频和视频之间时间一致性的关键步骤。通过根据第一音频源的移动播放轨迹和音效补偿参数集合,对音频和视频进行适时的调整和同步,使其在播放过程中保持一致的时间关系,从而实现音频和视频的同步播放效果。基于球坐标系设置至少一个参考点位。球坐标系是一种常用于球形环境的坐标系,通过设置至少一个参考点位,可以提供球幕影院等环境中的音频定位和音效表现的参考基准。参考点位可以选择球幕中心或其他固定位置作为参考点,以确定音频源的位置和方向。对至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。实时音频数据采集是为了获取参考点位的音频信息,以实现实时的音频处理和分析。通过采集参考点位周围的音频数据,可以得到多个实时音频数据,包括音频特性、声音方向、回声效果等信息。例如,在一个球幕影院中,假设播放一部自然风景的纪录片。根据第一音频源移动播放轨迹和第一音效补偿参数集合,将音频和视频进行同步播放。假设纪录片中有多个自然声音源,如鸟鸣、风声和水流声等。在球坐标系中设置参考点位为球幕中心。这个参考点位将作为音频和音效处理的基准点。通过实时音频数据采集,获取参考点位周围的音频信息。例如,在球幕中心附近设置麦克风进行实时音频采集,采集到的音频数据包括各个方向的声音特性和环境音效。根据采集到的实时音频数据,可以进行声音增强和均衡器调整,以优化音频效果。根据第一音频源移动播放轨迹和第一音效补偿参数集合,对音频进行相位调整和补偿,以保持音频与视频的同步性。在本实例中,当观众在球幕影院中观看这部纪录片时,可以听到自然声音源从不同的方向传来,如鸟鸣从左边飞过,风声从上方吹来,水流声从右侧流动。这些声音的位置和方向是根据第一音频源移动播放轨迹和第一音效补偿参数集合计算得出的,使观众能够获得更加真实和沉浸式的音频体验。参考点位的实时音频数据采集也确保了音频处理和效果的准确性和实时性。
在一具体实施例中,如图4所示,执行步骤S106的过程可以具体包括如下步骤:
S401、对多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征;
S402、对主成分音频特征进行编码,生成音频特征编码矩阵;
S403、将音频特征编码矩阵和视频画面数据输入预置的环绕声处理模型,其中,环绕声处理模型包括:两层门限循环网络和两层全连接网络、编码网络以及解码网络;
S404、通过两层门限循环网络对音频特征编码矩阵进行特征提取,得到第一特征状态矩阵,并通过两层全连接网络对第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹;
S405、通过编码网络对音频特征编码矩阵和视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵,并通过解码网络对第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。
具体的,服务器对于每个实时音频数据,服务器将其转换为频谱表示,可以使用短时傅里叶变换等技术。然后,应用主成分分析(PCA)或其他降维技术,提取出主要的频谱特征,即主成分音频特征。将主成分音频特征进行编码,生成音频特征编码矩阵。这个过程可以使用自编码器或其他编码模型,将高维的主成分音频特征映射到较低维度的编码空间中,以减少数据的存储和处理开销。随后,服务器将音频特征编码矩阵和视频画面数据输入预置的环绕声处理模型,该模型包括两层门限循环网络和两层全连接网络、编码网络以及解码网络。环绕声处理模型的目标是将音频特征和视频画面进行融合,以生成适用于环绕声的音频和视频输出。在处理音频特征编码矩阵时,通过两层门限循环网络可以进行特征提取,从而得到第一特征状态矩阵。随后,使用两层全连接网络对第一特征状态矩阵进行相位预测,从而生成第二音频源的移动播放轨迹。这个过程模拟了音频源在空间中的移动,为环绕声效果增添了真实感。通过编码网络对音频特征编码矩阵和视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵。这一阶段的特征提取和融合可以使用卷积神经网络(CNN)或其他适当的深度学习模型来实现。通过解码网络对第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。例如,假设有两个实时音频数据源,分别是来自左前方和右后方的声音。对每个音频数据进行短时傅里叶变换,将其转换为频谱表示。然后,对频谱进行主成分分析,提取出主要的频谱特征,例如频率范围和能量分布。将这些主成分音频特征编码成较低维度的音频特征编码矩阵。服务器还有视频画面数据,例如来自摄像头的实时图像。将音频特征编码矩阵和视频画面数据输入到环绕声处理模型中,通过门限循环网络进行特征提取,得到第一特征状态矩阵。然后,使用全连接网络对第一特征状态矩阵进行相位预测,生成第二音频源的移动播放轨迹,例如模拟声音从左前方移动到右后方。通过编码网络对音频特征编码矩阵和视频画面数据进行特征提取和融合,得到第二特征状态矩阵。通过解码网络对第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。这些补偿参数可以应用于音频输出,以实现更加逼真的环绕声效果。
上面对本发明实施例中球幕影院的音效处理方法进行了描述,下面对本发明实施例中球幕影院的音效处理系统进行描述,请参阅图5,本发明实施例中球幕影院的音效处理系统一个实施例包括:
定位模块501,用于对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
计算模块502,用于对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
分发模块503,用于对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号;
处理模块504,用于根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
采集模块505,用于根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
分析模块506,用于对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
调整模块507,用于通过所述第二音频源移动播放轨迹以及第二音效补偿参数集合对所述多个音频源进行动态音效调整。
可选的,所述定位模块501具体用于:
获取球幕影院的球幕设备布局信息,并根据所述球幕设备布局信息确定多个音频源的初始定位信息;
分别对所述多个音频源进行音频测试,得到每个音频源的音频测试数据;
对所述音频检测数据进行音频预处理,并计算每个音频源对应的音频时间差数据;
根据所述音频时间差数据对所述多个音频源进行声源定位分析,得到每个音频源的目标定位信息,其中,所述目标定位信息包括:水平角度以及垂直角度。
可选的,所述计算模块502具体用于:
将所述球幕影院的球幕中心作为原点,并将所述球幕影院的球幕表面作为参考平面,根据所述原点和所述参考平面构建球坐标系;
根据所述球坐标系,对所述水平角度以及所述垂直角度进行坐标转换,得到每个音频源的目标位置坐标,并将所述目标位置坐标作为每个音频源与球幕中心的第一位置数据;
根据所述第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据;
根据所述第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据;
根据所述第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。
可选的,所述分发模块503具体用于:
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据;
对所述音频源数据进行声音增强和均衡器调整,得到第一音频信号;
对所述第一音频信号进行编码处理,得到编码音频信号;
对所述编码音频信号进行音频分发,得到每个音频源的第二音频信号。
可选的,所述处理模块504具体用于:
获取每个第二音频信号的音频特性;
根据所述第一位置数据和所述第一距离数据对所述音频特性进行相位调整,得到每个第二音频信号的第一音频源移动播放轨迹;
根据所述音频特性,对所述第二位置数据和所述第二距离数据进行音效补偿参数分析,得到每个第二音频信号的第一音效补偿参数集合,其中,所述第一音效补偿参数集合包括:延迟补偿、音量补偿、方向补偿和回声补偿。
可选的,所述采集模块505具体用于:
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行音频和视频同步播放;
基于所述球坐标系设置至少一个参考点位;
对所述至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。
可选的,所述分析模块506具体用于:
对所述多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征;
对所述主成分音频特征进行编码,生成音频特征编码矩阵;
将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型,其中,所述环绕声处理模型包括:两层门限循环网络和两层全连接网络、编码网络以及解码网络;
通过所述两层门限循环网络对所述音频特征编码矩阵进行特征提取,得到第一特征状态矩阵,并通过所述两层全连接网络对所述第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹;
通过所述编码网络对所述音频特征编码矩阵和所述视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵,并通过所述解码网络对所述第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。
本发明实施例中,对第一音频信号进行音频分发,得到每个音频源的第二音频信号;根据第一位置数据和第一距离数据计算第一音频源移动播放轨迹,并根据第二位置数据和第二距离数据计算第一音效补偿参数集合;根据第一音频源移动播放轨迹和第一音效补偿参数集合进行播放并采集多个实时音频数据;进行音频特征编码,生成音频特征编码矩阵,并将音频特征编码矩阵和视频画面数据输入环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合,本发明能够准确地定位多个音频源并计算其位置信息,使得观众可以在全方位感受到音频的环绕包围,从而提升了观影的沉浸式体验。观众可以更加真实地感受到声音从各个方向传来,进一步融入到电影的故事情境中,通过对音频源数据进行音频渲染处理和音效补偿参数的调整,球幕影院的音效处理方法可以优化音频的质量和效果。观众可以享受到更加清晰、逼真、立体的音效效果,使得电影的场景和情节更加生动。球幕影院的音效处理方法能够实现音频和视频的准确分割和同步播放,使得观众在观影过程中不会出现声音和画面的不匹配情况,提供更加流畅和统一的观影体验。根据每个音频源的移动播放轨迹和音效补偿参数集合,球幕影院的音效处理方法可以实现对音效的动态调整,进而提高球幕影院的音效质量。
图6是本发明实施例提供的一种球幕影院的音效处理设备的结构示意图,该球幕影院的音效处理设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)610(例如,一个或一个以上处理器)和存储器620,一个或一个以上存储应用程序633或数据632的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器620和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对球幕影院的音效处理设备600中的一系列指令操作。更进一步地,处理器610可以设置为与存储介质630通信,在球幕影院的音效处理设备600上执行存储介质630中的一系列指令操作。
球幕影院的音效处理设备600还可以包括一个或一个以上电源640,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口660,和/或,一个或一个以上操作系统631,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图6示出的球幕影院的音效处理设备结构并不构成对球幕影院的音效处理设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种球幕影院的音效处理设备,所述球幕影院的音效处理设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述球幕影院的音效处理方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述球幕影院的音效处理方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random acceS memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种球幕影院的音效处理方法,其特征在于,所述球幕影院的音效处理方法包括:
对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号;
根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
通过所述第二音频源移动播放轨迹以及第二音效补偿参数集合对所述多个音频源进行动态音效调整。
2.根据权利要求1所述的球幕影院的音效处理方法,其特征在于,所述对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息,包括:
获取球幕影院的球幕设备布局信息,并根据所述球幕设备布局信息确定多个音频源的初始定位信息;
分别对所述多个音频源进行音频测试,得到每个音频源的音频测试数据;
对所述音频测试数据进行音频预处理,并计算每个音频源对应的音频时间差数据;
根据所述音频时间差数据对所述多个音频源进行声源定位分析,得到每个音频源的目标定位信息,其中,所述目标定位信息包括:水平角度以及垂直角度。
3.根据权利要求2所述的球幕影院的音效处理方法,其特征在于,所述对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据,包括:
将所述球幕影院的球幕中心作为原点,并将所述球幕影院的球幕表面作为参考平面,根据所述原点和所述参考平面构建球坐标系;
根据所述球坐标系,对所述水平角度以及所述垂直角度进行坐标转换,得到每个音频源的目标位置坐标,并将所述目标位置坐标作为每个音频源与球幕中心的第一位置数据;
根据所述第一位置数据,计算每个音频源与球幕中心的空间距离,得到第一距离数据;
根据所述第一位置数据,计算每两个音频源之间的相对位置关系,得到第二位置数据;
根据所述第二位置数据,计算每两个音频源之间的空间距离,得到第二距离数据。
4.根据权利要求1所述的球幕影院的音效处理方法,其特征在于,所述对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号,包括:
对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据;
对所述音频源数据进行声音增强和均衡器调整,得到第一音频信号;
对所述第一音频信号进行编码处理,得到编码音频信号;
对所述编码音频信号进行音频分发,得到每个音频源的第二音频信号。
5.根据权利要求1所述的球幕影院的音效处理方法,其特征在于,所述根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合,包括:
获取每个第二音频信号的音频特性;
根据所述第一位置数据和所述第一距离数据对所述音频特性进行相位调整,得到每个第二音频信号的第一音频源移动播放轨迹;
根据所述音频特性,对所述第二位置数据和所述第二距离数据进行音效补偿参数分析,得到每个第二音频信号的第一音效补偿参数集合,其中,所述第一音效补偿参数集合包括:延迟补偿、音量补偿、方向补偿和回声补偿。
6.根据权利要求3所述的球幕影院的音效处理方法,其特征在于,所述根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据,包括:
根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行音频和视频同步播放;
基于所述球坐标系设置至少一个参考点位;
对所述至少一个参考点位进行实时音频数据采集,得到多个实时音频数据。
7.根据权利要求1所述的球幕影院的音效处理方法,其特征在于,所述对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合,包括:
对所述多个实时音频数据进行音频特征主成分分析,生成每个实时音频数据的主成分音频特征;
对所述主成分音频特征进行编码,生成音频特征编码矩阵;
将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型,其中,所述环绕声处理模型包括:两层门限循环网络和两层全连接网络、编码网络以及解码网络;
通过所述两层门限循环网络对所述音频特征编码矩阵进行特征提取,得到第一特征状态矩阵,并通过所述两层全连接网络对所述第一特征状态矩阵进行相位预测,生成第二音频源移动播放轨迹;
通过所述编码网络对所述音频特征编码矩阵和所述视频画面数据进行特征提取和特征融合,得到第二特征状态矩阵,并通过所述解码网络对所述第二特征状态矩阵进行影像同步参数补偿分析,得到第二音效补偿参数集合。
8.一种球幕影院的音效处理系统,其特征在于,所述球幕影院的音效处理系统包括:
定位模块,用于对球幕影院中的多个音频源进行音频源定位,得到每个音频源的目标定位信息;
计算模块,用于对所述目标定位信息进行位置计算,得到每个音频源与球幕中心的第一位置数据和第一距离数据,以及每两个音频源之间的第二位置数据和第二距离数据;
分发模块,用于对待播放视频流进行音频和画面分割,得到音频源数据和视频画面数据,并对所述音频源数据进行音频渲染处理,得到第一音频信号,以及对所述第一音频信号进行音频分发,得到每个音频源的第二音频信号;
处理模块,用于根据所述第一位置数据和所述第一距离数据计算每个第二音频信号的第一音频源移动播放轨迹,并根据所述第二位置数据和所述第二距离数据计算每个第二音频信号的第一音效补偿参数集合;
采集模块,用于根据所述第一音频源移动播放轨迹和所述第一音效补偿参数集合,对所述待播放视频流进行播放,并基于预设参考点位采集多个实时音频数据;
分析模块,用于对所述多个实时音频数据进行音频特征编码,生成音频特征编码矩阵,并将所述音频特征编码矩阵和所述视频画面数据输入预置的环绕声处理模型进行环绕声和影像同步分析,输出第二音频源移动播放轨迹以及第二音效补偿参数集合;
调整模块,用于通过所述第二音频源移动播放轨迹以及第二音效补偿参数集合对所述多个音频源进行动态音效调整。
9.一种球幕影院的音效处理设备,其特征在于,所述球幕影院的音效处理设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述球幕影院的音效处理设备执行如权利要求1-7中任一项所述的球幕影院的音效处理方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-7中任一项所述的球幕影院的音效处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310896735.6A CN116614762B (zh) | 2023-07-21 | 2023-07-21 | 一种球幕影院的音效处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310896735.6A CN116614762B (zh) | 2023-07-21 | 2023-07-21 | 一种球幕影院的音效处理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116614762A CN116614762A (zh) | 2023-08-18 |
CN116614762B true CN116614762B (zh) | 2023-09-29 |
Family
ID=87682265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310896735.6A Active CN116614762B (zh) | 2023-07-21 | 2023-07-21 | 一种球幕影院的音效处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116614762B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140128567A (ko) * | 2013-04-27 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 위치기반 오디오 신호처리 방법 |
CN104270700A (zh) * | 2014-10-11 | 2015-01-07 | 武汉轻工大学 | 3d音频中移动音源的生成方法、装置及系统 |
CN106993249A (zh) * | 2017-04-26 | 2017-07-28 | 深圳创维-Rgb电子有限公司 | 一种声场的音频数据的处理方法及装置 |
CN112492380A (zh) * | 2020-11-18 | 2021-03-12 | 腾讯科技(深圳)有限公司 | 音效调整方法、装置、设备及存储介质 |
CN113553022A (zh) * | 2021-07-16 | 2021-10-26 | Oppo广东移动通信有限公司 | 设备调整方法、装置、移动终端及存储介质 |
CN115734148A (zh) * | 2022-10-31 | 2023-03-03 | 深圳创维-Rgb电子有限公司 | 音效调整方法以及相关装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210120356A1 (en) * | 2019-10-18 | 2021-04-22 | Msg Entertainment Group, Llc | Mapping Audio To Visual Images on a Display Device Having a Curved Screen |
-
2023
- 2023-07-21 CN CN202310896735.6A patent/CN116614762B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140128567A (ko) * | 2013-04-27 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 위치기반 오디오 신호처리 방법 |
CN104270700A (zh) * | 2014-10-11 | 2015-01-07 | 武汉轻工大学 | 3d音频中移动音源的生成方法、装置及系统 |
CN106993249A (zh) * | 2017-04-26 | 2017-07-28 | 深圳创维-Rgb电子有限公司 | 一种声场的音频数据的处理方法及装置 |
CN112492380A (zh) * | 2020-11-18 | 2021-03-12 | 腾讯科技(深圳)有限公司 | 音效调整方法、装置、设备及存储介质 |
CN113553022A (zh) * | 2021-07-16 | 2021-10-26 | Oppo广东移动通信有限公司 | 设备调整方法、装置、移动终端及存储介质 |
CN115734148A (zh) * | 2022-10-31 | 2023-03-03 | 深圳创维-Rgb电子有限公司 | 音效调整方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116614762A (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10349197B2 (en) | Method and device for generating and playing back audio signal | |
US10645518B2 (en) | Distributed audio capture and mixing | |
CN109906616B (zh) | 用于确定一或多个音频源的一或多个音频表示的方法、系统和设备 | |
US10251012B2 (en) | System and method for realistic rotation of stereo or binaural audio | |
US9131305B2 (en) | Configurable three-dimensional sound system | |
US7489788B2 (en) | Recording a three dimensional auditory scene and reproducing it for the individual listener | |
JP2016501472A (ja) | 空間オーディオ信号の異なる再生スピーカ設定に対するセグメント毎の調整 | |
CN109314832B (zh) | 音频信号处理方法和设备 | |
US20180068664A1 (en) | Method and apparatus for processing audio signals using ambisonic signals | |
KR20170106063A (ko) | 오디오 신호 처리 방법 및 장치 | |
TW202022853A (zh) | 以保真立體音響格式所編碼聲訊訊號為l個揚聲器在已知位置之解碼方法和裝置以及電腦可讀式儲存媒體 | |
CN112492380A (zh) | 音效调整方法、装置、设备及存储介质 | |
US10979846B2 (en) | Audio signal rendering | |
CN112005556B (zh) | 确定声源的位置的方法、声源定位系统以及存储介质 | |
US20230254655A1 (en) | Signal processing apparatus and method, and program | |
CN116614762B (zh) | 一种球幕影院的音效处理方法及系统 | |
US11917394B1 (en) | System and method for reducing noise in binaural or stereo audio | |
US11032660B2 (en) | System and method for realistic rotation of stereo or binaural audio | |
WO2019174442A1 (zh) | 拾音设备、声音输出方法、装置、存储介质及电子装置 | |
Lv et al. | A TCN-based primary ambient extraction in generating ambisonics audio from Panorama Video | |
O’Dwyer | Sound Source Localization and Virtual Testing of Binaural Audio | |
Vryzas et al. | Multichannel mobile audio recordings for spatial enhancements and ambisonics rendering | |
CN115460515A (zh) | 一种沉浸式音频生成方法及系统 | |
JP2024007669A (ja) | 音源及び受音体の位置情報を用いた音場再生プログラム、装置及び方法 | |
CN117998274A (zh) | 音频处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |