CN108133712B - 一种处理音频数据的方法和装置 - Google Patents
一种处理音频数据的方法和装置 Download PDFInfo
- Publication number
- CN108133712B CN108133712B CN201611080131.0A CN201611080131A CN108133712B CN 108133712 B CN108133712 B CN 108133712B CN 201611080131 A CN201611080131 A CN 201611080131A CN 108133712 B CN108133712 B CN 108133712B
- Authority
- CN
- China
- Prior art keywords
- algorithm
- type
- audio data
- type information
- adjusting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 357
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 486
- 230000006854 communication Effects 0.000 claims abstract description 45
- 230000000694 effects Effects 0.000 claims description 141
- 230000006835 compression Effects 0.000 claims description 29
- 238000007906 compression Methods 0.000 claims description 29
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 230000001629 suppression Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 abstract description 20
- 230000008569 process Effects 0.000 description 18
- 238000007635 classification algorithm Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 238000002592 echocardiography Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Telephone Function (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了一种处理音频数据的方法和装置,属于计算机技术领域。所述方法包括:获取待处理的音频数据;确定待使用的目标音频处理算法和所述音频数据的类型信息;基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整;如果判断对所述目标音频处理算法进行调整,则对所述目标音频处理算法进行调整,基于调整后的目标音频处理算法对所述音频数据进行处理;如果判断不对所述目标音频处理算法进行调整,则基于所述目标音频处理算法对所述音频数据进行处理。采用本发明,可以提高语音通信质量。
Description
技术领域
本发明涉及无线通信技术领域,特别涉及一种处理音频数据的方法和装置。
背景技术
随着通信技术的发展,移动终端的使用越来越普及,人们可以通过移动终端进行语音通信。在语音通信的过程中,发送端的用户可以说话或播放音乐,发送端则可以检测到相应的音频数据,然后将检测到的音频数据发送给接收端,接收端接收到该音频数据后,可以通过耳机或扬声器等部件播放该音频数据,以使接收端的用户可以听到相应的音频。
由于网络环境的影响,音频数据可能会受到噪声干扰,或者出现延迟、回声、丢失等情况,因此,发送端和接收端可以通过预设的音频处理算法,对音频数据进行处理,以提高语音通信质量。例如,音频处理算法可以为3A算法,即AEC(Adaptive EchoCancellation,自适应回声消除)算法、ANS(Automatic Noise Suppression,自动噪声抑制)算法和AGC(Automatic Gain Control,自动增益控制)算法,基于3A算法可以降低音频数据的噪声、消除回声,并使得输出信号有一定的能量且稳定;又如,音频处理算法可以为JBM(Jitter Buffer Management,抖动缓存管理)算法,基于JBM算法,可以使得在网络抖动时,仍然能够保证有相对连续稳定的信号输出。
由于上述技术方案对于语音通信过程中的所有音频数据,都会通过上述音频处理算法进行处理,然而某些音频数据的在进行上述处理后,听觉效果会变差,例如,音频数据为一段音乐的音频数据,经过ANS算法进行降噪处理后,会严重影响该音乐的音效,这样,会导致通信质量较差。
发明内容
为例解决通信质量较差的问题,本发明实施例提供了一种处理音频数据的方法和装置。所述技术方案如下:
第一方面,提供了一种处理音频数据的方法,所述方法包括:
获取待处理的音频数据;
确定待使用的目标音频处理算法和所述音频数据的类型信息;
基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整;
如果判断对所述目标音频处理算法进行调整,则对所述目标音频处理算法进行调整,基于调整后的目标音频处理算法对所述音频数据进行处理;
如果判断不对所述目标音频处理算法进行调整,则基于所述目标音频处理算法对所述音频数据进行处理。
本发明实施例中,在语音通信的过程中,可以基于音频数据的类型信息和目标音频处理算法,判断是否对所述目标音频处理算法进行调整,从而可以在处理某些类型的音频数据时,对目标音频处理算法进行调整,以达到较佳的处理效果,提高语音通信质量。
在一种可能的实现方式中,所述对所述目标音频处理算法进行调整,包括:
基于所述类型信息确定调整系数;
基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
基于所述调整系数对所述目标参数的参数值进行调整。
本发明实施例中,提供了一种调整音频处理算法的实现方式。
在另一种可能的实现方式中,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
在另一种可能的实现方式中,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
在另一种可能的实现方式中,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
在另一种可能的实现方式中,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
在另一种可能的实现方式中,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
在另一种可能的实现方式中,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
在另一种可能的实现方式中,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
在另一种可能的实现方式中,所述基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整,包括:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为非话音活动帧类型,则判断对所述ANS算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为音乐类型,则判断对所述ANS算法进行调整;如果所述类型信息为语音类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AGC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为音乐类型,则判断对所述AGC算法进行调整;如果所述类型信息为语音类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AEC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为音乐类型,则判断对所述AEC算法进行调整;如果所述类型信息为语音类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为JBM算法时,如果所述类型信息为非话音活动帧类型,则判断对所述JBM算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述JBM算法不进行调整;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则判断对所述TSM算法进行调整;如果所述类型信息为非话音活动帧类型,则判断所述TSM算法不进行调整。
第二方面,提供了一种处理音频数据的方法,所述方法包括:
获取待处理的音频数据;
确定待使用的目标音频处理算法和所述音频数据的类型信息;
基于所述类型信息确定调整系数;
基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
基于所述调整系数对所述目标参数的参数值进行调整;
基于所述目标参数调整后的参数值,对所述音频数据进行处理。
本发明实施例中,在语音通信的过程中,可以先确定待处理的音频信号的类别信息,然后根据该类别信息,确定用于调整音频信号的调整系数,进而根据目标音频处理算法和调整系数,对音频信号进行处理,并输出处理后的音频信号,这样,对于不同的类别的音频信号,可以进行不同的音频处理,从而可以提高语音通信质量。
在一种可能的实现方式中,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
在另一种可能的实现方式中,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
在另一种可能的实现方式中,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
在另一种可能的实现方式中,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
在另一种可能的实现方式中,所述基于所述调整系数对所述目标参数的参数值进行调整,包括:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为话音活动帧类型,则基于预设的第一调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第二调整系数对所述噪声的噪声参数进行调整,所述第一调整系数小于所述第二调整系数;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为语音类型,则基于预设的第三调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第四调整系数对所述噪声的噪声参数进行调整,所述第三调整系数大于所述第四调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第五调整系数对所述回声的回声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第六调整系数对所述回声的回声参数进行调整,所述第五调整系数小于所述第六调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为语音类型,则基于预设的第七调整系数对所述回声的回声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第八调整系数对所述回声的回声参数进行调整,所述第七调整系数大于所述第八调整系数;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第九调整系数对所述衰减增益因子进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十调整系数对所述衰减增益因子进行调整,所述第九调整系数大于所述第十调整系数;或
当所述目标音频处理算法为AGC算法时,如果所述类型信息为语音类型,则基于预设的第十一调整系数对所述衰减增益因子进行调整,如果所述类型信息为音乐类型,则基于预设的第十二调整系数对所述衰减增益因子进行调整,所述第十一调整系数大于所述第十二调整系数。
在另一种可能的实现方式中,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
在另一种可能的实现方式中,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
在另一种可能的实现方式中,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
在另一种可能的实现方式中,所述基于所述调整系数对所述目标参数的参数值进行调整,包括:
当所述目标音频处理算法为JBM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十三调整系数对所述缓存深度进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十四调整系数对所述缓存深度进行调整,所述第十三调整系数大于所述第十四调整系数;
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十五调整系数对所述拉伸参数或压缩参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十六调整系数对所述拉伸参数或压缩参数进行调整,所述第十五调整系数小于所述第十六调整系数;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为语音类型,则基于预设的第十七调整系数对所述噪声进行调整,如果所述类型信息为音乐类型,则基于预设的第十八调整系数对所述噪声进行调整,所述第十七调整系数大于所述第十八调整系数。
第三方面,提供了一种处理音频数据的装置,该装置包括:处理器、网络接口、存储器以及总线,存储器与网络接口分别通过总线与处理器相连;处理器被配置为执行存储器中存储的指令;处理器通过执行指令来实现上述第一方面或第一方面中任意一种可能的实现方式所提供的处理音频数据的方法。
第四方面,本发明实施例提供了一种处理音频数据的装置,该处理音频数据的装置包括至少一个单元,该至少一个单元用于实现上述第一方面或第一方面中任意一种可能的实现方式所提供的处理音频数据的方法。
第五方面,提供了一种处理音频数据的装置,该装置包括:处理器、网络接口、存储器以及总线,存储器与网络接口分别通过总线与处理器相连;处理器被配置为执行存储器中存储的指令;处理器通过执行指令来实现上述第二方面或第二方面中任意一种可能的实现方式所提供的处理音频数据的方法。
第六方面,本发明实施例提供了一种处理音频数据的装置,该处理音频数据的装置包括至少一个单元,该至少一个单元用于实现上述第二方面或第二方面中任意一种可能的实现方式所提供的处理音频数据的方法。
上述本发明实施例第三到第四方面所获得的技术效果与第一方面中对应的技术手段获得的技术效果近似,上述本发明实施例第五到第六方面所获得的技术效果与第二方面中对应的技术手段获得的技术效果近似,在这里不再赘述。
本发明实施例中,在语音通信的过程中,可以基于音频数据的类型信息和目标音频处理算法,判断是否对所述目标音频处理算法进行调整,从而可以在处理某些类型的音频数据时,对目标音频处理算法进行调整,以达到较佳的处理效果,提高语音通信质量。
附图说明
图1是本发明实施例提供的一种系统框架图;
图2是本发明实施例提供的一种传输音频数据的示意图;
图3是本发明实施例提供的一种终端的结构示意图;
图4是本发明实施例提供的一种处理音频数据的方法流程图;
图5是本发明实施例提供的一种处理音频数据的方法流程图;
图6是本发明实施例提供的一种处理音频数据的方法流程图;
图7是本发明实施例提供的一种处理音频数据的装置结构示意图;
图8是本发明实施例提供的一种处理音频数据的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种处理音频数据的方法,该方法的执行主体为终端。其中,该终端可以是语音通信过程中,用于发送音频数据的发送端,也可以是用于接收音频数据的接收端。在语音通信的过程中,发送端可以通过麦克风等输入设备检测音频数据,该音频数据可以是用户的语音,可以是一段音乐,也可以是其他音频数据。发送端检测到音频数据后,可以对该音频数据进行编码,然后通过网络将编码后的音频数据发送给接收端,接收端接收到编码后的音频数据后,可以对该音频数据进行解码,然后播放解码后的音频数据。如图1所示,为本发明实施例提供的系统框架图,其中包括发送端、接收端和网络。
为了提高语音通信的质量,终端中可以预先存储音频处理算法,以便对音频数据进行处理。音频处理算法可以为3A算法,即AEC(Adaptive Echo Cancellation,自适应回声消除)算法、ANS(Automatic Noise Suppression,自动噪声抑制)算法和AGC(AutomaticGain Control,自动增益控制)算法,基于3A算法可以消除音频数据中的回声,降低音频数据的噪声、并提高信号输出的稳定性;音频处理算法可以为JBM(Jitter BufferManagement,抖动缓存管理)算法,基于JBM算法,可以在接受不到音频数据的时间段内,发送缓存的音频数据,提高通话的持续性;音频处理算法还可以为TSM(Time ScaleModification,时间尺度调整)算法,基于TSM算法,可以对音频数据进行拉伸或压缩,从而将音频数据调整为目标时长的音频数据,提高通话的持续性,例如,由于网络的原因,终端在某一帧内接收到的音频数据的时长小于一帧,则可以通过TSM算法将接收到的音频数据拉伸为时长为一帧的音频数据,或者,终端在某一帧内接收到的音频数据的时长大于一帧,则可以通过TSM算法将接收到的音频数据压缩为时长为一帧的音频数据。发送端和接收端之间传输音频数据的过程可以如下:发送端在检测到音频数据后,可以通过3A算法,对该音频数据进行处理,然后对处理后的音频数据进行编码,进而通过无线通信网络将编码后的音频数据发送给接收端。接收端接收到编码后的音频数据后,可以通过JBM算法和/或TSM算法,对接收到的音频数据进行处理,然后对处理后的音频数据进行解码,再通过3A算法,对解码后的音频数据进行处理,进而通过输出设备(如耳机或扬声器等)对处理后的音频数据进行输出,以使接收端的用户可以听到该音频数据,如图2所示,为发送端和接收端之间传输音频数据的示意图。
参见图3,其示出了本发明示例性实施例提供的一种终端,该终端可以是上述发送端或者接收端,该终端10包括收发器1011和存储器1012,该终端还可以包括处理器1013和网络接口1014。其中,存储器1012和网络接口1014分别与处理器1013连接;存储器1012用于存储程序代码,程序代码包括计算机操作指令,处理器1013和收发器1011用于执行存储器1012中存储的程序代码,用于实现音频数据的相关处理,并可以通过网络接口1014与基站或其他终端进行交互。
处理器1013包括一个或者一个以上处理核心。处理器1013通过运行软件程序以及单元,从而执行下述处理音频数据的方法。
在一个可能的设计中,该终端还可以包括总线1015等部件。其中,存储器1012与网络接口1014分别通过总线1015与处理器1013和收发器1011相连。
存储器1012可用于存储软件程序以及单元。具体的,存储器1012可存储操作系统10121、至少一个功能所需的应用程序单元10122。操作系统10121可以是实时操作系统(Real Time eXecutive,RTX)、LINUX、UNIX、WINDOWS或OS X之类的操作系统。
图4是本发明一示例性实施例提供的一种处理音频数据的方法流程图,该方法可以用于如图1所示的系统框架中。如图4所示,该处理音频数据的方法可以包括:
步骤401,获取待处理的音频数据。
其中,音频数据可以是终端检测到或解码处理得到的音频信号,也可以是经过编码处理得到的音频码流。类型信息可以是用于表示该音频数据的类型的信息,音频数据的类型可以包括话音活动帧和非话音活动帧,话音活动帧可以包括语音类型和音乐类型。
在实施中,终端可以获取待处理的音频数据,对于终端为发送端的情况,终端可以通过输入设备(如麦克风)检测音频数据,将检测到的音频数据,作为待处理的音频数据。对于终端为接收端的情况,终端可以通过接收部件接收发送端发送的音频码流,将接收到的音频码流作为待处理的音频数据,或者,也可以将进行某种处理后的音频数据作为待处理的音频数据,如解码处理或某算法处理。
步骤402,确定待使用的目标音频处理算法和音频数据的类型信息。
在实施中,终端获取到待处理的音频数据后,可以根据该音频数据在语音通信过程中所处的阶段,确定待使用的目标音频处理算法。例如,待处理的音频数据为发送端检测到的音频数据,目标音频处理算法可以为3A算法;待处理的音频数据为接收端解码处理后的音频数据,目标音频处理算法可以为3A算法;待处理的音频数据为接收端接收到的音频数据,目标音频处理算法可以为JBM算法或TSM算法。
另外,终端获取到待处理的音频数据后,还可以确定该音频数据的类型信息。终端可以根据已有的音频分类算法,确定音频数据的类型信息,相应的处理过程可以如下:根据预先存储的音频分类算法,确定音频数据的特征值,根据音频数据的特征值,确定音频数据的类型信息。
在实施中,终端中可以预先存储用于对音频数据进行分类的音频分类算法,终端获取到待处理的音频数据后,可以根据预先存储的音频分类算法,计算音频数据的特征值,然后可以根据该音频数据的特征值,确定该音频数据的类型信息。其中,音频分类算法可以采用现有技术中的音频分类算法,如VAD(Voice Activity Detection,语音活动检测)算法和语音音乐分类算法。基于VAD算法,可以确定该音频数据是话音活动帧,还是非话音活动帧;基于语音音乐分类器,可以进一步确定该话音活动帧类型的音频数据是语音类型,还是音乐类型。
终端计算出该音频数据的特征值后,可以根据该特征值确定该音频数据的类型信息。终端可以判断该特征值是否大于预设的分类阈值,如果该特征值大于预设的分类阈值,则可以将第一类型信息作为该音频数据的类型信息,如果该特征值小于预设的类型信息,则可以将第二类型信息作为该音频数据的类型信息。例如,预设的分类阈值为0.5,该音频数据的特征值为0.8,则该音频数据的类型信息为1,表示该音频数据为语音类型的信号;该音频数据的特征值为0.2,则该音频数据的类型信息为0,表示该音频数据为音乐类型的信号。
或者,终端也可以从编解码器中获取音频数据的类型信息。
在实施中,终端可以采用具有信号分类功能的编解码器,编解码器中可以存储有音频分类算法。当某音频数据输入到编解码器后,编解码器可以根据预先存储的音频分类算法,确定音频数据的特征值,进而根据音频数据的特征值,确定该音频数据的类型信息,具体处理过程与上述过程类似,不再赘述。编解码器可以对确定出的类型信息进行存储,以便进行后续处理。
由于终端可能会先通过音频处理算法对音频数据进行处理,然后再进行编解码,这时,终端可以从编解码器中获取类型信息,作为当前帧音频数据的类型信息。而编解码器中存储的类型信息,为编解码器对上一帧输入的音频数据进行分析得到的类型信息,这种情况下,类型信息相对于该音频数据会存在一帧时延,但是,由于语音信号可以理解为类周期的慢渐变信号,所以该时延可以忽略。
步骤403,基于音频数据的类型信息和目标音频处理算法,判断是否对目标音频处理算法进行调整。
在实施中,音频数据的类型信息可以包括话音活动帧类型和非话音活动帧类型,其中,话音活动帧类型可以包括音乐类型和语音类型。基于不同的需求,终端可以对音频信号进行不同等级的分类,例如,可以将音频数据分为话音活动帧类型和非话音活动帧,或者,也可以先将音频数据分为非话音活动帧和话音活动帧类型,在对话音活动帧类型的音频数据进一步分类成语音类型或音乐类型,本实施例不做限定。
终端确定目标音频处理算法和音频数据的类型信息之后,可以根据预先存储的音频处理算法和需要调整的类型信息对应关系,确定目标音频处理算法对应的需要调整的类型信息(可称为第一类型信息),如果待处理的音频数据的类型信息为第一类型信息,则判断对目标音频处理算法进行调整,否则,判断对目标音频处理算法不进行调整。本实施例对常用的几种音频处理算法的判断方式进行了说明,具体如下:
一、当目标音频处理算法为ANS算法时,如果类型信息为非话音活动帧类型,则判断对ANS算法进行调整;如果类型信息为话音活动帧类型,则判断对ANS算法不进行调整;
对于终端进一步确定音频数据是音乐类型或语音类型的情况,当目标音频处理算法为ANS算法时,如果类型信息为音乐类型,则判断对ANS算法进行调整;如果类型信息为语音类型,则判断对ANS算法不进行调整。
二、当目标音频处理算法为AGC算法时,如果类型信息为非话音活动帧类型,则判断对AGC算法进行调整;如果类型信息为话音活动帧类型,则判断对AGC算法不进行调整;
对于终端进一步确定音频数据是音乐类型或语音类型的情况,当目标音频处理算法为AGC算法时,如果类型信息为音乐类型,则判断对AGC算法进行调整;如果类型信息为语音类型,则判断对AGC算法不进行调整。
三、当目标音频处理算法为AEC算法时,如果类型信息为非话音活动帧类型,则判断对AEC算法进行调整;如果类型信息为话音活动帧类型,则判断对AEC算法不进行调整;
终端可以确定音频数据是音乐类型或语音类型,当目标音频处理算法为AEC算法时,如果类型信息为音乐类型,则判断对AEC算法进行调整;如果类型信息为语音类型,则判断对AEC算法不进行调整。
四、当目标音频处理算法为JBM算法时,如果类型信息为非话音活动帧类型,则判断对JBM算法进行调整;如果类型信息为话音活动帧类型,则判断对JBM算法不进行调整。
五、当目标音频处理算法为TSM算法时,如果类型信息为话音活动帧类型,则判断对TSM算法进行调整;如果类型信息为非话音活动帧类型,则判断TSM算法不进行调整。
对于TSM算法,终端还可以进一步确定音频数据是音乐类型或语音类型,对于音乐类型的音频数据和语音类型的音频数据,可以进行不同程度的调整,后续会进行详细介绍。
步骤404,如果判断对目标音频处理算法进行调整,则对目标音频处理算法进行调整,基于调整后的目标音频处理算法对音频数据进行处理。
在实施中,如果终端判断对目标音频处理算法进行调整,则可以根据预先存储的音频处理算法的调整策略,对目标音频处理算法进行调整,基于调整后的目标音频处理算法对音频数据进行处理,进而可以输出处理后的音频数据。对于终端为发送端的情况,终端可以输出处理后的音频数据,以使编解码器获取处理后的音频数据,对处理后的音频数据进行编码处理。对于终端为接收端的情况,终端可以在解码之前进行上述处理,相应的,终端可以将处理后的音频数据输出给编解码器,以使编解码器获取处理后的音频数据,对处理后的音频数据进行解码处理;终端也可以在解码之后进行上述处理,相应的,终端可以将处理后的音频数据通过输出部件进行输出(如耳机或扬声器等),以使用户可以听到该音频。终端对音频处理算法进行调整的具体过程后续会进行详细介绍。
步骤405,如果判断不对目标音频处理算法进行调整,则基于目标音频处理算法对音频数据进行处理。
在实施中,如果终端判断不对目标音频处理算法进行调整,则可以基于终端中存储的目标音频处理算法,直接对音频数据进行处理。
本实施例提供了终端对音频处理算法进行调整的具体处理过程,如图5所示,可以包括以下步骤:
步骤501,基于类型信息确定调整系数。
在实施中,终端判断对目标音频处理算法进行调整后,可以基于音频数据的类型信息确定调整系数。该调整系数的数目可以是一个,也可以是多个。终端基于类型信息确定调整系数的方式可以是多种多样的,本实施例提供了两种可行的方式,具体如下:
方式一、根据预先存储的类型信息与调整系数的对应关系,确定待处理的音频数据的类型信息对应的调整系数。
在实施中,终端中可以预先存储类型信息和调整系数的对应关系,该对应关系可以根据音频处理算法建立,不同的音频处理算法可以建立不同的对应关系。终端获取到目标音频处理算法后,可以获取目标音频处理算法对应的类型信息和调整系数的对应关系。例如,目标音频处理算法为ANS算法,非话音活动帧类型对应的调整系数可以为0;音乐类型对应的调整系数可以为0.3。终端确定该音频数据的类型信息后,可以根据获取到的对应关系,确定该类型信息对应的调整系数,以便进行后续处理。
方式二、将类型信息的特征值作为音频数据的调整系数。
在实施中,终端也可以将确定出的类型信息的特征值作为调整系数,例如,目标音频处理算法为ANS算法,确定出的类型信息的特征值为0.8,则可以将0.8作为调整系数;确定出的类型信息的特征值为0.2,则可以将0.2作为调整系数。
步骤502,基于目标音频处理算法确定需要进行参数值调整的目标参数。
在实施中,不同的音频处理算法中,需要调整的参数是不同的,终端还可以根据音频处理算法和待调整的参数的对应关系,确定目标音频处理算法对应的目标参数,以便进行后续处理。
其中,目标参数可以包括基于目标音频处理算法进行算法处理过程中的中间参数,本实施例提供了几个示例,具体如下:
一、目标音频处理算法包括ANS算法,中间参数可以包括基于ANS算法和音频数据确定出的噪声的噪声参数。
在实施中,终端可以基于ANS算法和待处理的音频数据,确定该音频数据对应的噪声,以便后续对该噪声的噪声参数进行调整。如果是对音频数据进行时域上的调整,则噪声的噪声参数可以为噪声的噪声值,如果是对音频数据进行频域上的调整,则噪声的噪声参数可以为噪声的频谱系数和/或频谱幅度。
二、目标音频处理算法包括AGC算法,中间参数包括基于AGC算法和音频数据确定出的衰减增益因子。
在实施中,终端可以根据当前帧的音频数据(即待处理的音频数据)的能量/幅度,以及当前帧之前的音频数据的能量/幅度,确定当前帧的信号增益值,该增益值可以反映当前帧的音频数据的能量/幅度相对于之前的音频数据的能量/幅度的变化,进而可以根据增益值确定当前帧的音频数据对应的衰减增益因子,然后可以通过衰减增益因子,对待处理的音频数据进行放大处理或缩小处理,使得输出的音频数据的能量不会突然变大或变小。
三、目标音频处理算法包括AEC算法,中间参数包括基于AEC算法和音频数据确定出的回声的回声参数。
在实施中,终端可以根据AEC算法确定待处理的音频数据的回声,以便后续对该回声的回声参数进行调整。该回声参数可以是该回声的回声值。
目标参数也可以包括基于目标音频处理算法进行算法处理过程中的初始参数。本实施例提供了几个示例,具体如下:
一、目标音频处理算法可以包括JBM算法,初始参数可以包括音频数据的缓存深度。
在实施中,基于JBM算法,接收端可以对接收到的音频数据进行实时缓存,然后将缓存的接收时间最早的音频数据进行输出,这样,在接收不到音频数据的时间段内,接收端可以输出缓存的音频数据,从而提高语音通信的持续性。其中,缓存深度可以为通话过程中终端缓存的音频数据的帧数。
二、目标音频处理算法可以包括TSM算法,初始参数可以包括音频数据的拉伸参数或压缩参数。
在实施中,基于TSM算法,接收端可以对接收到的音频数据进行拉伸或压缩,以调整音频数据对应的播放时长。例如,当接收端接收到的语音不够一帧时,如果需要按一帧进行输出,可以基于拉伸参数将接收到的音频数据进行拉伸,当接收端接收到的语音大于一帧时,如果需要按一帧进行输出,可以基于压缩参数将接收到的音频数据进行压缩,具体的处理过程可以参考现有技术,本实施例不再赘述。其中,拉伸参数可以用于表示音频数据的拉伸程度,如目标拉伸时长;压缩参数可以用于表示音频数据的压缩程度,如目标压缩时长。
步骤503,基于调整系数对目标参数的参数值进行调整。
在实施中,终端确定出调整系数,以及需要进行参数值调整的目标参数后,可以用目标参数的参数值,乘以该调整系数,从而对目标音频处理算法进行调整。本实施例提供了对不同的音频处理算法进行调整的情况,具体如下:
对于目标音频处理算法为ANS算法的情况,如果音频数据的类型为非话音活动帧类型的音频数据,则可以用噪声的噪声参数乘以较大的调整系数,使得调整后的噪声大于计算出的噪声。这样,对于话音活动帧类型的音频数据,可以按照正常方式滤掉噪声,从而提高语音通信过程中的语音清晰度,同时又不会削弱语音信号;而对于非话音活动帧类型的音频数据,可以滤掉较多的噪声,从而避免在无人说话时,用户听到杂音的情况。
如果音频数据的类型为音乐类型的音频数据,则可以用噪声的噪声参数乘以较小的调整系数,使得调整后的噪声小于计算出的噪声。这样,对于语音类型的音频数据,可以按照正常方式滤掉噪声,从而提高语音通信过程中的语音清晰度;而对于音乐类型的音频数据,可以滤掉相对较少的噪声,从而优化音乐播放的音效。
对于目标音频处理算法为AGC算法的情况,如果音频数据的类型为非话音活动帧类型的音频数据,则可以用衰减增益因子乘以调整系数0,这样,对于话音活动帧类型的音频数据,可以按照正常方式进行增益调整,使语音通信过程中的音量保持一致;而对于非话音活动帧类型的音频数据,可以不进行增益调整,从而节约处理资源。
如果音频数据的类型为音乐类型的音频数据,则可以用衰减增益因子乘以小的调整系数,得到较小的衰减增益因子。这样,对于语音类型的音频数据,可以进行正常的增益调整,使语音通信过程中的音量保持一致;而对于音乐类型的音频数据,可以降低增益的调整幅度,使得原音频中各帧音频数据的能量基本不变,提高音乐播放的还原度。
对于目标音频处理算法为AEC算法的情况,如果音频数据的类型为非话音活动帧类型的音频数据,则可以用回声的回声参数乘以较大的调整系数,使得调整后的回声大于计算出的回声。这样,对于话音活动帧类型的音频数据,可以按照正常方式滤掉回声,提高语音通信过程中的语音清晰度,同时又不会削弱语音信号;而对于非话音活动帧类型的音频数据,可以滤掉较多的回声,从而避免在无人说话时,用户听到杂音的情况。
如果音频数据的类型为音乐类型的音频数据,则可以用回声的回声参数乘以较小的调整系数,使得调整后的回声小于计算出的回声。这样,对于语音类型的音频数据,可以按照正常方式滤掉回声,提高语音通信过程中的语音清晰度;而对于音乐类型的音频数据,可以滤掉相对较少分类的回声,以避免滤掉音频数据中的有用信号,从而优化音乐播放的音效。
对于目标音频处理算法可以为JBM算法的情况,如果音频数据的类型为非话音活动帧类型的音频数据,则可以用音频数据的缓存深度乘以较小的调整系数,使得调整后的缓存深度小于JBM算法中预设的缓存深度。基于JBM算法对音频数据进行处理时,发送端和接收端会存在一定的时延,而基于上述调整后,对于非话音活动帧的音频数据,接收端可以只缓存较少的音频数据,从而可以减小发送端和接收端的时延,提高用户体验。
对于目标音频处理算法可以为TSM算法的情况,如果音频数据的类型为话音活动帧类型的音频数据,则可以用拉伸参数或压缩参数的参数值乘以较小的调整系数,使得调整后的拉伸参数或压缩参数的参数值小于TSM算法中预设的拉伸参数或压缩参数的参数值。这样,可以降低对话音活动帧的音频数据的拉伸或压缩程度,避免用户听到变调的音频,同时,对于非话音活动帧的音频数据进行正常的TSM处理,可以减少网络抖动时丢包引起的不能及时输出语音或输出的语音过多的情况。
如果音频数据的类型为语音类型的音频数据,则可以用拉伸参数或压缩参数的参数值乘以较小的调整系数,使得调整后的拉伸参数或压缩参数的参数值小于TSM算法中预设的拉伸参数或压缩参数的参数值;如果音频数据的类型为音乐类型的音频数据,则可以用拉伸参数或压缩参数的参数值乘以更小的调整系数,使得调整后的拉伸参数或压缩参数的参数值小于语音类型的音频数据对应的拉伸参数或压缩参数的参数值。这样,对于语音类型的音频数据,适当的做一些拉伸或压缩处理,从而在一定程度上减少网络抖动时丢包引起的不能及时输出语音或输出的语音过多的情况;对于音乐类型的音频数据,由于对音调的准确度要求较高,所以可以不进行或进行更小程度的拉伸或压缩处理,从而优化音乐播放的音效。
本发明实施例中,在语音通信的过程中,可以基于音频数据的类型信息和目标音频处理算法,判断是否对所述目标音频处理算法进行调整,从而可以在处理某些类型的音频数据时,对目标音频处理算法进行调整,以达到较佳的处理效果,提高语音通信质量。
本发明实施例还提供的一种处理音频数据的方法,如图6所示,该处理音频数据的方法可以包括:
步骤601,获取待处理的音频数据。
该步骤的处理过程可以参见上述步骤401,此处不再赘述。
步骤602,确定待使用的目标音频处理算法和音频数据的类型信息。
该步骤的处理过程可以参见上述步骤402,此处不再赘述。
步骤603,基于类型信息确定调整系数。
该步骤的处理过程可以参见上述步骤501,此处不再赘述。
步骤604,基于目标音频处理算法确定需要进行参数值调整的目标参数。
该步骤的处理过程可以参见上述步骤502,此处不再赘述。
其中,目标参数包括基于目标音频处理算法进行算法处理过程中的中间参数;或者,目标参数也可以包括基于目标音频处理算法进行算法处理过程中的初始参数。
步骤605,基于调整系数对目标参数的参数值进行调整。
在实施中,终端确定出调整系数,以及需要进行参数值调整的目标参数后,可以用目标参数的参数值,乘以该调整系数,从而对目标音频处理算法进行调整。在对不同类型的音频数据进行处理时,用于调整各音频处理算法的调整系数是不同的,本实施例提供了对不同的音频处理算法进行调整的说明,具体如下:
一、对于目标音频处理算法包括ANS算法的情况,中间参数可以为基于ANS算法和音频数据确定出的噪声的噪声参数。
其中,如果是对音频数据进行时域上的调整,则噪声的噪声参数可以为噪声的噪声值,如果是对音频数据进行频域上的调整,则噪声的噪声参数可以为噪声的频谱系数和/或频谱幅度。
在对ANS算法进行调整时,如果类型信息为话音活动帧类型,则基于预设的第一调整系数对噪声的噪声参数进行调整,如果类型信息为非话音活动帧类型,则基于预设的第二调整系数对噪声的噪声参数进行调整,第一调整系数小于第二调整系数。
例如,类型信息为1,表示音频数据的类型为话音活动帧,对应的第一调整系数为0.7,类型信息为2,表示音频数据的类型为非话音活动帧,对应的第二调整系数为1。如果该音频数据为话音活动帧类型的信号,则可以用该噪声的噪声参数的乘以0.7,得到调整后的噪声。如果该音频数据为非话音活动帧类型的信号,则可以用该噪声的噪声参数乘以1,得到调整后的噪声。这样,对于话音活动帧类型的音频数据,可以按照正常方式滤掉噪声,从而提高语音通信过程中的语音清晰度,同时又不会削弱语音信号;而对于非话音活动帧类型的音频数据,可以滤掉较多的噪声,从而避免在无人说话时,用户听到杂音的情况。
如果类型信息为语音类型,则基于预设的第三调整系数对噪声的噪声参数进行调整,如果类型信息为音乐类型,则基于预设的第四调整系数对噪声的噪声参数进行调整,第三调整系数大于第四调整系数,第三调整系数可以小于等于第二调整系数。
例如,语音类型的类型信息为1,对应的第三调整系数为0.7;音乐类型的类型信息为0,对应的第四调整系数为0.3,如果该音频数据为语音类型的信号,则可以用该噪声的噪声参数乘以0.7,得到调整后的噪声,如果该音频数据为音乐类型的信号,则可以用该噪声的噪声参数乘以0.3,得到调整后的噪声。这样,对于语音类型的音频数据,可以滤掉相对较多的噪声,从而提高语音通信过程中的语音清晰度;而对于音乐类型的音频数据,可以滤掉相对较少的噪声,从而优化音乐播放的音效。
二、对于目标音频处理算法包括自适应回声消除AEC算法,中间参数包括基于AEC算法和音频数据确定出的回声的回声参数。
其中,回声的回声参数可以是回声参数的参数值。
在对AEC算法进行调整时,如果类型信息为话音活动帧类型,则基于预设的第五调整系数对回声的回声参数进行调整,如果类型信息为非话音活动帧类型,则基于预设的第六调整系数对回声的回声参数进行调整,第五调整系数小于第六调整系数。
例如,类型信息为1,表示音频数据的类型为话音活动帧,对应的第五调整系数为0.7,类型信息为2,表示音频数据的类型为非话音活动帧,对应的第六调整系数为1。如果该音频数据为话音活动帧类型的信号,则可以用该回声的回声参数乘以0.7,得到调整后的回声。如果该音频数据为非话音活动帧类型的信号,则可以用该回声的回声参数乘以1,得到调整后的回声。这样,对于话音活动帧类型的音频数据,可以按照正常方式滤掉回声,提高语音通信过程中的语音清晰度,同时又不会削弱语音信号;而对于非话音活动帧类型的音频数据,可以滤掉较多的回声,从而避免在无人说话时,用户听到杂音的情况。
如果类型信息为语音类型,则基于预设的第七调整系数对回声的回声参数进行调整,如果类型信息为音乐类型,则基于预设的第八调整系数对回声的回声参数进行调整,第七调整系数可以大于第八调整系数,第七调整系数可以小于第六调整系数。
例如,语音类型的类型信息为1,对应的第七调整系数可以为0.7;音乐类型的类型信息为0,对应的第八调整系数可以为0.3,如果该音频数据为语音类型的信号,则可以用该回声的回声参数乘以0.7,得到调整后的回声。如果该音频数据为音乐类型的信号,则可以用该回声的回声参数乘以0.3,得到调整后的回声。这样,对于语音类型的音频数据,可以滤掉相对较多的回声,提高语音通信过程中的语音清晰度;而对于音乐类型的音频数据,可以滤掉相对较少分类的回声,以避免滤掉音频数据中的有用信号,从而优化音乐播放的音效。
三、对于目标音频处理算法包括自动增益控制AGC算法,中间参数可以包括基于AGC算法和音频数据确定出的衰减增益因子。
在对AGC算法进行调整时,如果类型信息为话音活动帧类型,则基于预设的第九调整系数对衰减增益因子进行调整,如果类型信息为非话音活动帧类型,则基于预设的第十调整系数对衰减增益因子进行调整,第九调整系数大于第十调整系数。
例如,类型信息为1,表示音频数据的类型为话音活动帧,对应的第九调整系数为1,类型信息为2,表示音频数据的类型为非话音活动帧,对应的第十调整系数为0。如果该音频数据为话音活动帧类型的信号,则可以用衰减增益因子乘以1,得到调整后的衰减增益因子。如果该音频数据为非话音活动帧类型的信号,则可以用衰减增益因子乘以0,得到调整后的衰减增益因子。这样,对于话音活动帧类型的音频数据,可以按照正常方式进行增益调整,使语音通信过程中的音量保持一致;而对于非话音活动帧类型的音频数据,可以不进行增益调整,从而节约处理资源。
如果类型信息为语音类型,则基于预设的第十一调整系数对衰减增益因子进行调整,如果类型信息为音乐类型,则基于预设的第十二调整系数对衰减增益因子进行调整,第十一调整系数大于第十二调整系数,第十二调整系数可以大于第十调整系数。
例如,语音类型的类型信息为1,对应的第十一调整系数为0.7;音乐类型的类型信息为0,对应的第十二调整系数为0.3,如果该音频数据为语音类型的信号,则可以用衰减增益因子乘以0.7,得到调整后的衰减增益因子。如果该音频数据为音乐类型的信号,则可以用衰减增益因子乘以0.3,得到调整后的衰减增益因子。这样,对于语音类型的音频数据,可以进行适当的增益调整,使语音通信过程中的音量保持一致;而对于音乐类型的音频数据,可以降低增益的调整幅度,使得原音频中各帧音频数据的能量基本不变,提高音乐播放的还原度。
四、目标音频处理算法包括JBM算法,初始参数包括音频数据的缓存深度。
在对JBM算法进行调整时,如果类型信息为话音活动帧类型,则基于预设的第十三调整系数对缓存深度进行调整,如果类型信息为非话音活动帧类型,则基于预设的第十四调整系数对缓存深度进行调整,第十三调整系数大于第十四调整系数。
例如,类型信息为1,表示音频数据的类型为话音活动帧,对应的第十三调整系数为1,类型信息为2,表示音频数据的类型为非话音活动帧,对应的第十四调整系数为0.5,JBM算法中的缓存深度为10帧,如果该音频数据为话音活动帧类型的信号,则可以确定调整系数可以为1,将JBM算法中的缓存深度乘以1,也即,调整后的JBM算法中的缓存深度为10帧。如果该音频数据为非话音活动帧类型的信号,则可以确定调整系数可以为0.5,将JBM算法中的缓存深度乘以0.5,也即,调整后的JBM算法中的缓存深度为5帧。基于JBM算法对音频数据进行处理时,发送端和接收端会存在一定的时延,而基于上述处理,对于非话音活动帧的音频数据,接收端可以只缓存较少的音频数据,从而可以减小发送端和接收端的时延,提高用户体验。
五、目标音频处理算法包括TSM算法,初始参数包括音频数据的拉伸参数或压缩参数。
在对TSM算法进行调整时,如果类型信息为话音活动帧类型,则基于预设的第十五调整系数对拉伸参数或压缩参数进行调整,如果类型信息为非话音活动帧类型,则基于预设的第十六调整系数对拉伸参数或压缩参数进行调整,第十五调整系数小于第十六调整系数。
例如,类型信息为1,表示音频数据的类型为话音活动帧,对应的第十五调整系数为0,类型信息为2,表示音频数据的类型为非话音活动帧,对应的第十六调整系数为1,如果该音频数据为话音活动帧类型的信号,则可以确定调整系数可以为0,将TSM算法中的拉伸参数或压缩参数的参数值乘以0,也即,可以不对该音频数据进行拉伸处理或压缩处理,从而保证通话声音不变调。如果该音频数据为非话音活动帧类型的信号,则可以确定调整系数可以为1,将TSM算法中的拉伸参数或压缩参数的参数值乘以1,然后根据调整后的TSM算法,对该音频数据进行处理,得到处理后的音频数据。这样,可以降低对话音活动帧的音频数据的拉伸或压缩程度,避免用户听到变调的音频,同时,对于非话音活动帧的音频数据进行正常的TSM处理,可以减少网络抖动时丢包引起的不能及时输出语音或输出的语音过多的情况。
如果类型信息为语音类型,则基于预设的第十七调整系数对噪声的噪声参数进行调整,如果类型信息为音乐类型,则基于预设的第十八调整系数对噪声的噪声参数进行调整,第十七调整系数大于第十八调整系数,第十七调整系数可以小于第十六调整系数。
例如,语音类型的类型信息可以为1,对应的第十七调整系数可以为0.7;音乐类型的类型信息为0,对应的第十八调整系数可以为0,如果该音频数据为语音类型的信号,则可以确定调整系数可以为0.7,用拉伸参数或压缩参数的参数值乘以0.7,然后再对该音频数据进行处理。如果该音频数据为音乐类型的信号,则可以确定调整系数可以为0,用拉伸参数或压缩参数的参数值乘以0,然后再对该音频数据进行处理。这样,对于语音类型的音频数据,适当的做一些拉伸或压缩处理,从而在一定程度上减少网络抖动时丢包引起的不能及时输出语音或输出的语音过多的情况;对于音乐类型的音频数据,由于对音调的准确度要求较高,所以可以不进行拉伸或压缩处理,从而优化音乐播放的音效。
步骤606,基于目标参数调整后的参数值,对音频数据进行算法处理。
该步骤的处理过程可以参见上述步骤404的相关说明,此处不再赘述。
本发明实施例中,在语音通信的过程中,可以先确定待处理的音频数据的类型信息,然后根据该类型信息,确定用于调整音频数据的调整系数,进而根据目标音频处理算法和调整系数,对音频数据进行处理,并输出处理后的音频数据,这样,对于不同的类型的音频数据,可以进行不同的音频处理,从而可以提高语音通信质量。
图7是本发明实施例提供的一种处理音频数据的装置的结构方框图,该装置可以通过软件、硬件或者两者的结合实现成为终端的部分或者全部。
该装置包括:获取单元701、确定单元702、判断单元703、调整单元704和处理单元705。
获取单元701用于执行上述实施例中的步骤401及其可选方案。
确定单元702用于执行上述实施例中的步骤402及其可选方案。
判断单元703用于执行上述实施例中的步骤403及其可选方案。
调整单元704用于执行上述实施例中的步骤404及其可选方案。
处理单元705用于执行上述实施例中的步骤405及其可选方案。
本发明实施例中,在语音通信的过程中,可以基于音频数据的类型信息和目标音频处理算法,判断是否对所述目标音频处理算法进行调整,从而可以在处理某些类型的音频数据时,对目标音频处理算法进行调整,以达到较佳的处理效果,提高语音通信质量。
图8是本发明实施例提供的一种处理音频数据的装置的结构方框图,该装置可以通过软件、硬件或者两者的结合实现成为终端的部分或者全部。
该装置包括:获取单元801、确定单元802、调整单元803和处理单元804。
获取单元801用于执行上述实施例中的步骤601及其可选方案。
确定单元802用于执行上述实施例中的步骤602~604及其可选方案。
调整单元803用于执行上述实施例中的步骤605及其可选方案。
处理单元804用于执行上述实施例中的步骤606及其可选方案。
本发明实施例中,在语音通信的过程中,可以先确定待处理的音频数据的类型信息,然后根据该类型信息,确定用于调整音频数据的调整系数,进而根据目标音频处理算法和调整系数,对音频数据进行处理,并输出处理后的音频数据,这样,对于不同的类型的音频数据,可以进行不同的音频处理,从而可以提高语音通信质量。
需要说明的是:上述实施例提供的处理音频数据的装置在处理音频数据时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的处理音频数据的装置与处理音频数据的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本发明中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (41)
1.一种处理音频数据的方法,其特征在于,所述方法包括:
获取待处理的音频数据;
根据所述音频数据在语音通信过程中所处的阶段,确定待使用的目标音频处理算法,确定所述音频数据的类型信息,所述音频数据的类型信息包括语音类型、音乐类型或者非话音活动帧类型中的任意一种;
基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整;
如果判断对所述目标音频处理算法进行调整,则对所述目标音频处理算法进行调整,基于调整后的目标音频处理算法对所述音频数据进行处理;
如果判断不对所述目标音频处理算法进行调整,则基于所述目标音频处理算法对所述音频数据进行处理。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标音频处理算法进行调整,包括:
基于所述类型信息确定调整系数;
基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
基于所述调整系数对所述目标参数的参数值进行调整。
3.根据权利要求2所述的方法,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
4.根据权利要求3所述的方法,其特征在于,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
5.根据权利要求3或4所述的方法,其特征在于,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
6.根据权利要求3或4所述的方法,其特征在于,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
7.根据权利要求2所述的方法,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
8.根据权利要求7所述的方法,其特征在于,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
9.根据权利要求7或8所述的方法,其特征在于,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
10.根据权利要求1-4、7及8任一所述的方法,其特征在于,所述基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整,包括:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为非话音活动帧类型,则判断对所述ANS算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为音乐类型,则判断对所述ANS算法进行调整;如果所述类型信息为语音类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AGC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为音乐类型,则判断对所述AGC算法进行调整;如果所述类型信息为语音类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AEC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为音乐类型,则判断对所述AEC算法进行调整;如果所述类型信息为语音类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为JBM算法时,如果所述类型信息为非话音活动帧类型,则判断对所述JBM算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述JBM算法不进行调整;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则判断对所述TSM算法进行调整;如果所述类型信息为非话音活动帧类型,则判断所述TSM算法不进行调整。
11.一种处理音频数据的方法,其特征在于,所述方法包括:
获取待处理的音频数据;
根据所述音频数据在语音通信过程中所处的阶段,确定待使用的目标音频处理算法,确定所述音频数据的类型信息,所述音频数据的类型信息包括语音类型、音乐类型或者非话音活动帧类型中的任意一种;
基于所述类型信息确定调整系数;
基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
基于所述调整系数对所述目标参数的参数值进行调整;
基于所述目标参数调整后的参数值,对所述音频数据进行处理。
12.根据权利要求11所述的方法,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
13.根据权利要求12所述的方法,其特征在于,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
14.根据权利要求12或13所述的方法,其特征在于,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
15.根据权利要求12或13所述的方法,其特征在于,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
16.根据权利要求13所述的方法,其特征在于,所述基于所述调整系数对所述目标参数的参数值进行调整,包括:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为话音活动帧类型,则基于预设的第一调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第二调整系数对所述噪声的噪声参数进行调整,所述第一调整系数小于所述第二调整系数;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为语音类型,则基于预设的第三调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第四调整系数对所述噪声的噪声参数进行调整,所述第三调整系数大于所述第四调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第五调整系数对回声的回声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第六调整系数对所述回声的回声参数进行调整,所述第五调整系数小于所述第六调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为语音类型,则基于预设的第七调整系数对所述回声的回声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第八调整系数对所述回声的回声参数进行调整,所述第七调整系数大于所述第八调整系数;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第九调整系数对衰减增益因子进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十调整系数对所述衰减增益因子进行调整,所述第九调整系数大于所述第十调整系数;或
当所述目标音频处理算法为AGC算法时,如果所述类型信息为语音类型,则基于预设的第十一调整系数对所述衰减增益因子进行调整,如果所述类型信息为音乐类型,则基于预设的第十二调整系数对所述衰减增益因子进行调整,所述第十一调整系数大于所述第十二调整系数。
17.根据权利要求11-13及16任一所述的方法,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
18.根据权利要求17所述的方法,其特征在于,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
19.根据权利要求18所述的方法,其特征在于,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
20.根据权利要求18或19所述的方法,其特征在于,所述基于所述调整系数对所述目标参数的参数值进行调整,包括:
当所述目标音频处理算法为JBM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十三调整系数对所述缓存深度进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十四调整系数对所述缓存深度进行调整,所述第十三调整系数大于所述第十四调整系数;
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十五调整系数对拉伸参数或压缩参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十六调整系数对所述拉伸参数或压缩参数进行调整,所述第十五调整系数小于所述第十六调整系数;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为语音类型,则基于预设的第十七调整系数对噪声进行调整,如果所述类型信息为音乐类型,则基于预设的第十八调整系数对所述噪声进行调整,所述第十七调整系数大于所述第十八调整系数。
21.一种处理音频数据的装置,其特征在于,所述装置包括:
获取单元,用于获取待处理的音频数据;
确定单元,用于根据所述音频数据在语音通信过程中所处的阶段,确定待使用的目标音频处理算法,确定所述音频数据的类型信息,所述音频数据的类型信息包括语音类型、音乐类型或者非话音活动帧类型中的任意一种;
判断单元,用于基于所述音频数据的类型信息和所述目标音频处理算法,判断是否对所述目标音频处理算法进行调整;
调整单元,用于如果判断对所述目标音频处理算法进行调整,则对所述目标音频处理算法进行调整,基于调整后的目标音频处理算法对所述音频数据进行处理;
处理单元,用于如果判断不对所述目标音频处理算法进行调整,则基于所述目标音频处理算法对所述音频数据进行处理。
22.根据权利要求21所述的装置,其特征在于,所述调整单元,用于:
基于所述类型信息确定调整系数;
基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
基于所述调整系数对所述目标参数的参数值进行调整。
23.根据权利要求22所述的装置,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
24.根据权利要求23所述的装置,其特征在于,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
25.根据权利要求23或24所述的装置,其特征在于,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
26.根据权利要求23或24所述的装置,其特征在于,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
27.根据权利要求22所述的装置,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
28.根据权利要求27所述的装置,其特征在于,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
29.根据权利要求27或28所述的装置,其特征在于,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
30.根据权利要求21-24、27及28任一所述的装置,其特征在于,所述判断单元,用于:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为非话音活动帧类型,则判断对所述ANS算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为音乐类型,则判断对所述ANS算法进行调整;如果所述类型信息为语音类型,则判断对所述ANS算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AGC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为音乐类型,则判断对所述AGC算法进行调整;如果所述类型信息为语音类型,则判断对所述AGC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为非话音活动帧类型,则判断对所述AEC算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为音乐类型,则判断对所述AEC算法进行调整;如果所述类型信息为语音类型,则判断对所述AEC算法不进行调整;
当所述目标音频处理算法为JBM算法时,如果所述类型信息为非话音活动帧类型,则判断对所述JBM算法进行调整;如果所述类型信息为话音活动帧类型,则判断对所述JBM算法不进行调整;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则判断对所述TSM算法进行调整;如果所述类型信息为非话音活动帧类型,则判断所述TSM算法不进行调整。
31.一种处理音频数据的装置,其特征在于,所述装置包括:
获取单元,用于获取待处理的音频数据;
确定单元,用于根据所述音频数据在语音通信过程中所处的阶段,确定待使用的目标音频处理算法,确定所述音频数据的类型信息,所述音频数据的类型信息包括语音类型、音乐类型或者非话音活动帧类型中的任意一种;
所述确定单元,还用于基于所述类型信息确定调整系数;
所述确定单元,还用于基于所述目标音频处理算法确定需要进行参数值调整的目标参数;
调整单元,用于基于所述调整系数对所述目标参数的参数值进行调整;
处理单元,用于基于所述目标参数调整后的参数值,对所述音频数据进行处理。
32.根据权利要求31所述的装置,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的中间参数。
33.根据权利要求32所述的装置,其特征在于,所述目标音频处理算法包括自动噪声抑制ANS算法,所述中间参数包括基于所述ANS算法和所述音频数据确定出的噪声的噪声参数。
34.根据权利要求32或33所述的装置,其特征在于,所述目标音频处理算法包括自动增益控制AGC算法,所述中间参数包括基于所述AGC算法和所述音频数据确定出的衰减增益因子。
35.根据权利要求32或33所述的装置,其特征在于,所述目标音频处理算法包括自适应回声消除AEC算法,所述中间参数包括基于所述AEC算法和所述音频数据确定出的回声的回声参数。
36.根据权利要求33所述的装置,其特征在于,所述调整单元,用于:
当所述目标音频处理算法为ANS算法时,如果所述类型信息为话音活动帧类型,则基于预设的第一调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第二调整系数对所述噪声的噪声参数进行调整,所述第一调整系数小于所述第二调整系数;
当所述目标音频处理算法为ANS算法时,如果所述类型信息为语音类型,则基于预设的第三调整系数对所述噪声的噪声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第四调整系数对所述噪声的噪声参数进行调整,所述第三调整系数大于所述第四调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第五调整系数对回声的回声参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第六调整系数对所述回声的回声参数进行调整,所述第五调整系数小于所述第六调整系数;
当所述目标音频处理算法为AEC算法时,如果所述类型信息为语音类型,则基于预设的第七调整系数对所述回声的回声参数进行调整,如果所述类型信息为音乐类型,则基于预设的第八调整系数对所述回声的回声参数进行调整,所述第七调整系数大于所述第八调整系数;
当所述目标音频处理算法为AGC算法时,如果所述类型信息为话音活动帧类型,则基于预设的第九调整系数对衰减增益因子进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十调整系数对所述衰减增益因子进行调整,所述第九调整系数大于所述第十调整系数;或
当所述目标音频处理算法为AGC算法时,如果所述类型信息为语音类型,则基于预设的第十一调整系数对所述衰减增益因子进行调整,如果所述类型信息为音乐类型,则基于预设的第十二调整系数对所述衰减增益因子进行调整,所述第十一调整系数大于所述第十二调整系数。
37.根据权利要求31-33及36任一所述的装置,其特征在于,所述目标参数包括基于所述目标音频处理算法进行处理过程中的初始参数。
38.根据权利要求37所述的装置,其特征在于,所述目标音频处理算法包括抖动缓存管理JBM算法,所述初始参数包括音频数据的缓存深度。
39.根据权利要求38所述的装置,其特征在于,所述目标音频处理算法包括时间尺度调整TSM算法,所述初始参数包括音频数据的拉伸参数或压缩参数。
40.根据权利要求38或39所述的装置,其特征在于,所述调整单元,用于:
当所述目标音频处理算法为JBM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十三调整系数对所述缓存深度进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十四调整系数对所述缓存深度进行调整,所述第十三调整系数大于所述第十四调整系数;
当所述目标音频处理算法为TSM算法时,如果所述类型信息为话音活动帧类型,则基于预设的第十五调整系数对拉伸参数或压缩参数进行调整,如果所述类型信息为非话音活动帧类型,则基于预设的第十六调整系数对所述拉伸参数或压缩参数进行调整,所述第十五调整系数小于所述第十六调整系数;或
当所述目标音频处理算法为TSM算法时,如果所述类型信息为语音类型,则基于预设的第十七调整系数对噪声进行调整,如果所述类型信息为音乐类型,则基于预设的第十八调整系数对所述噪声进行调整,所述第十七调整系数大于所述第十八调整系数。
41.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条程序,所述程序用于指令硬件实现如权利要求1-20中任一所述的处理音频数据的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611080131.0A CN108133712B (zh) | 2016-11-30 | 2016-11-30 | 一种处理音频数据的方法和装置 |
PCT/CN2017/098350 WO2018099143A1 (zh) | 2016-11-30 | 2017-08-21 | 一种处理音频数据的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611080131.0A CN108133712B (zh) | 2016-11-30 | 2016-11-30 | 一种处理音频数据的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108133712A CN108133712A (zh) | 2018-06-08 |
CN108133712B true CN108133712B (zh) | 2021-02-12 |
Family
ID=62242769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611080131.0A Active CN108133712B (zh) | 2016-11-30 | 2016-11-30 | 一种处理音频数据的方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108133712B (zh) |
WO (1) | WO2018099143A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402910B (zh) * | 2018-12-17 | 2023-09-01 | 华为技术有限公司 | 一种消除回声的方法和设备 |
CN111883171B (zh) * | 2020-04-08 | 2023-09-22 | 珠海市杰理科技股份有限公司 | 音频信号的处理方法及系统、音频处理芯片、蓝牙设备 |
CN114003193B (zh) * | 2020-07-28 | 2023-10-17 | 宏碁股份有限公司 | 电子装置与声音模式调整方法 |
CN113113046B (zh) * | 2021-04-14 | 2024-01-19 | 杭州网易智企科技有限公司 | 音频处理的性能检测方法、装置、存储介质及电子设备 |
CN114006890B (zh) * | 2021-10-26 | 2024-02-06 | 深圳Tcl新技术有限公司 | 一种数据传输方法、设备及存储介质和终端设备 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4110734B2 (ja) * | 2000-11-27 | 2008-07-02 | 沖電気工業株式会社 | 音声パケット通信の品質制御装置 |
KR100841096B1 (ko) * | 2002-10-14 | 2008-06-25 | 리얼네트웍스아시아퍼시픽 주식회사 | 음성 코덱에 대한 디지털 오디오 신호의 전처리 방법 |
CN1964187B (zh) * | 2005-11-11 | 2011-09-28 | 鸿富锦精密工业(深圳)有限公司 | 音量管理系统、方法及装置 |
CN101060315B (zh) * | 2006-04-21 | 2010-09-29 | 鸿富锦精密工业(深圳)有限公司 | 音量管理系统及方法 |
CN100589183C (zh) * | 2007-01-26 | 2010-02-10 | 北京中星微电子有限公司 | 数字自动增益控制方法及装置 |
CN101404160B (zh) * | 2008-11-21 | 2011-05-04 | 北京科技大学 | 一种基于音频识别的语音降噪方法 |
US8521541B2 (en) * | 2010-11-02 | 2013-08-27 | Google Inc. | Adaptive audio transcoding |
CN103634439B (zh) * | 2012-08-21 | 2016-12-21 | 佛山市爱翔电器有限公司 | 降噪处理系统 |
US20150179181A1 (en) * | 2013-12-20 | 2015-06-25 | Microsoft Corporation | Adapting audio based upon detected environmental accoustics |
JP6233103B2 (ja) * | 2014-03-05 | 2017-11-22 | 富士通株式会社 | 音声合成装置、音声合成方法及び音声合成プログラム |
US20150327035A1 (en) * | 2014-05-12 | 2015-11-12 | Intel Corporation | Far-end context dependent pre-processing |
CN105336339B (zh) * | 2014-06-03 | 2019-05-03 | 华为技术有限公司 | 一种语音频信号的处理方法和装置 |
EP2960899A1 (en) * | 2014-06-25 | 2015-12-30 | Thomson Licensing | Method of singing voice separation from an audio mixture and corresponding apparatus |
JP2016035501A (ja) * | 2014-08-01 | 2016-03-17 | 富士通株式会社 | 音声符号化装置、音声符号化方法、音声符号化用コンピュータプログラム、音声復号装置、音声復号方法及び音声復号用コンピュータプログラム |
CN104200810B (zh) * | 2014-08-29 | 2017-07-18 | 无锡中感微电子股份有限公司 | 自动增益控制装置及方法 |
DE102015204253B4 (de) * | 2015-03-10 | 2016-11-10 | Sivantos Pte. Ltd. | Verfahren zur frequenzabhängigen Rauschunterdrückung eines Eingangssignals sowie Hörgerät |
US9489963B2 (en) * | 2015-03-16 | 2016-11-08 | Qualcomm Technologies International, Ltd. | Correlation-based two microphone algorithm for noise reduction in reverberation |
JP6511897B2 (ja) * | 2015-03-24 | 2019-05-15 | 株式会社Jvcケンウッド | 雑音低減装置、雑音低減方法及びプログラム |
CN106157963B (zh) * | 2015-04-08 | 2019-10-15 | 质音通讯科技(深圳)有限公司 | 一种音频信号的降噪处理方法和装置及电子设备 |
CN105654962B (zh) * | 2015-05-18 | 2020-01-10 | 宇龙计算机通信科技(深圳)有限公司 | 信号处理方法、装置及电子设备 |
-
2016
- 2016-11-30 CN CN201611080131.0A patent/CN108133712B/zh active Active
-
2017
- 2017-08-21 WO PCT/CN2017/098350 patent/WO2018099143A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018099143A1 (zh) | 2018-06-07 |
CN108133712A (zh) | 2018-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108133712B (zh) | 一种处理音频数据的方法和装置 | |
US10186276B2 (en) | Adaptive noise suppression for super wideband music | |
KR101852892B1 (ko) | 음성 인식 방법, 음성 인식 장치 및 전자 장치 | |
JP4897173B2 (ja) | ノイズ抑制 | |
US8744091B2 (en) | Intelligibility control using ambient noise detection | |
US9100756B2 (en) | Microphone occlusion detector | |
US11164592B1 (en) | Responsive automatic gain control | |
US9711162B2 (en) | Method and apparatus for environmental noise compensation by determining a presence or an absence of an audio event | |
CN112004177B (zh) | 一种啸叫检测方法、麦克风音量调节方法及存储介质 | |
EP2860730A1 (en) | Speech processing | |
JP2008543194A (ja) | オーディオ信号ゲイン制御装置及び方法 | |
KR102317686B1 (ko) | 잡음 환경에 적응적인 음성 신호 처리방법 및 장치 | |
AU2612402A (en) | Voice-activity detection using energy ratios and periodicity | |
US9491545B2 (en) | Methods and devices for reverberation suppression | |
US20140006019A1 (en) | Apparatus for audio signal processing | |
JP3273599B2 (ja) | 音声符号化レート選択器と音声符号化装置 | |
KR102307355B1 (ko) | 잡음 환경의 통화 품질을 개선하는 방법 및 장치 | |
US9319783B1 (en) | Attenuation of output audio based on residual echo | |
JP2002237785A (ja) | 人間の聴覚補償によりsidフレームを検出する方法 | |
US9185506B1 (en) | Comfort noise generation based on noise estimation | |
CN110782907B (zh) | 语音信号的发送方法、装置、设备及可读存储介质 | |
WO2013078677A1 (zh) | 一种自适应调节音效的方法和设备 | |
CN111063363A (zh) | 一种语音获取方法、音频设备和具有存储功能的装置 | |
US9934791B1 (en) | Noise supressor | |
US9392365B1 (en) | Psychoacoustic hearing and masking thresholds-based noise compensator system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |