CN113593597B - 语音噪声过滤方法、装置、电子设备和介质 - Google Patents
语音噪声过滤方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN113593597B CN113593597B CN202110995096.XA CN202110995096A CN113593597B CN 113593597 B CN113593597 B CN 113593597B CN 202110995096 A CN202110995096 A CN 202110995096A CN 113593597 B CN113593597 B CN 113593597B
- Authority
- CN
- China
- Prior art keywords
- voice
- segmented
- clustering
- noise
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000011218 segmentation Effects 0.000 claims abstract description 31
- 238000009826 distribution Methods 0.000 claims abstract description 18
- 238000003064 k means clustering Methods 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 29
- 238000003860 storage Methods 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 230000001755 vocal effect Effects 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 12
- 206010011224 Cough Diseases 0.000 abstract description 6
- 230000002349 favourable effect Effects 0.000 abstract 1
- 230000001737 promoting effect Effects 0.000 abstract 1
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本公开提供了一种语音噪声过滤方法、装置、电子设备和介质,涉及语音识别技术领域。其中,语音噪声过滤方法包括:对输入的语音信息进行分段操作,得到分段语音;基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心;根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声;对识别出的所述噪声执行噪声过滤操作,得到过滤后的所述语音信息。通过本公开的技术方案,能够提升对彩铃、笑声、咳嗽声、背景人声、信道噪声等无效音频的过滤效果,进而有利于提升设置有本公开的噪声过滤模块的语音识别系统的识别性能,从而提升用户的使用体验。
Description
技术领域
本公开涉及语音识别技术领域,尤其涉及一种语音噪声过滤方法、装置、电子设备和存储介质。
背景技术
随着语音识别技术的发展,语音识别的应用也越来越广泛,但是由于实网环境的复杂性,待识别的语音中包括各种复杂环境噪声,例如彩铃、笑声、咳嗽声、背景人声、信道噪声等。
相关技术中,采用语音端点检测(Voice Activity Detection,VAD)技术以分离有效的语音信号和无用的语音信号或者噪音信号,但是该方案去除噪声的效果不够好,导致仍会影响语音识别系统的性能,进而噪声用户的体验度较差。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种语音噪声过滤方法、装置、存储介质及电子设备,至少在一定程度上克服由于相关技术中对噪声过滤的效果不佳的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种语音噪声过滤方法,包括:对输入的语音信息进行分段操作,得到分段语音;基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心;根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声;对识别出的所述噪声执行噪声过滤操作,得到过滤后的所述语音信息。
在一个实施例中,所述基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇,具体包括:基于滤波器组提取所述分段语音中的语音特征;将所述语音特征输入延时神经网络,以得到由所述延时神经网络生成的输出特征;计算所述输出特征的平均特征向量,将所述平均特征向量作为所述人声特征,以对所述人声特征执行所述层次聚类操作,得到所述初始聚类簇。
在一个实施例中,所述对所述人声特征执行所述层次聚类操作,得到所述初始聚类簇,具体包括:在所述分段语音中选择分段时长大于第一时长阈值的聚类分段语音,将所述聚类分段语音中的所述人声特征确定为聚类特征;对所述聚类特征执行自底向上的合并层次聚类操作,生成所述初始聚类簇。
在一个实施例中,所述基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心,具体包括:基于余弦相似度计算任意两个所述聚类特征之间的距离;基于所述距离修正所述初始聚类簇,得到修正聚类簇;在每个修正聚类簇中,在所述聚类分段语音中选择分段时长大于第二时长阈值的中心分段语音;计算属于所述中心分段语音的所述平均特征向量的均值,得到中心特征向量,基于所述中心特征向量确定所述聚类中心。
在一个实施例中,还包括:在检测到所述聚类分段语音的分段时长均小于或等于所述第二时长阈值,停止执行噪声过滤操作。
在一个实施例中,所述根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声,具体包括:计算所述分段语音到每个所述聚类中心的余弦相似度距离;统计所述余弦相似度距离的方差,所述方差用于表示所述距离分布;在检测到任一所述分段语音对应的所述余弦相似度距离小于距离阈值,以及对应的所述方差小于方差阈值,则确定任一所述语音分段为噪声。
在一个实施例中,还包括:分别计算任意两个所述聚类中心之间的距离,得到多个余弦距离;计算所述多个余弦距离的均值,基于所述均值和可调节的惩罚参数生成所述距离阈值。
在一个实施例中,所述对输入的语音信息进行分段操作,得到分段语音,具体包括:基于语音端点检测操作对所述语音信息进行分段操作,得到初始分段;对所述初始分段执行分词处理,得到所述分段语音。
在一个实施例中,还包括:对过滤后的所述语音信息执行语音识别操作,得到识别结果。
根据本公开的第二方面,提供一种语音噪声过滤装置,包括:分段模块,用于对输入的语音信息进行分段操作,得到分段语音;第一聚类模块,用于基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;第二聚类模块,用于基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心;识别模块,用于根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声;过滤模块,用于对识别出的所述噪声执行噪声过滤操作,得到过滤后的所述语音信息。
根据本公开的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;所述处理器配置为经由执行所述可执行指令来执行上述的语音噪声过滤方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的语音噪声过滤方法。
本公开的实施例所提供的语音噪声过滤方法,通过提取分段语音中的人声特征,以基于人声特征执行聚类操作,得到聚类中心,并基于分段语音与聚类中心之间的聚类关系,识别噪声,并进一步删除噪声分段,以实现噪声过滤,该方案能够提升对彩铃、笑声、咳嗽声、背景人声、信道噪声等无效音频的过滤效果,进而有利于提升设置有本公开的噪声过滤模块的语音识别系统的识别性能,从而提升用户的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种语音噪声过滤方法流程图;
图2示出本公开实施例中另一种语音噪声过滤方法流程图;
图3示出本公开实施例中另一种语音噪声过滤方法流程图;
图4示出本公开实施例中再一种语音噪声过滤方法流程图;
图5示出本公开实施例中又一种语音噪声过滤方法流程图;
图6示出本公开实施例中又一种语音噪声过滤方法流程图;
图7示出本公开实施例中又一种语音噪声识别方法流程图;
图8示出本公开实施例中一种语音噪声过滤装置示意图;
图9示出本公开实施例中一种计算机设备的结构框图;和
图10示出本公开实施例中一种程序产品的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本申请提供的方案,通过提取分段语音中的人声特征,以基于人声特征执行聚类操作,得到聚类中心,并基于分段语音与聚类中心之间的聚类关系,识别噪声,并进一步删除噪声分段,以实现噪声过滤,该方案能够提升对彩铃、笑声、咳嗽声、背景人声、信道噪声等无效音频的过滤效果,进而有利于提升设置有本公开的噪声过滤模块的语音识别系统的识别性能,从而提升用户的使用体验。
下面,将结合附图及实施例对本示例实施方式中的语音噪声过滤方法的各个步骤进行更详细的说明。
图1示出本公开实施例中一种语音噪声过滤方法流程图。
如图1所示,根据本公开的一个实施例的语音噪声过滤方法,包括以下步骤:
步骤S102,对输入的语音信息进行分段操作,得到分段语音。
其中,通过对语音信息进行分段并得到分段语音,以基于分段语音进行聚类,通过检测分段语音与聚类得到的聚类中心之间的距离关系,进行噪声的识别。
具体地,语音分段操作包括但不限于基于语音端点检测(Voice ActivityDetection,VAD)进行分段、基于分词进行分段、基于时长进行分段等方式。
步骤S104,基于分段语音中的人声特征执行层次聚类操作,得到初始聚类簇。
其中,由于人声特征是分段语音中需要保留的特征,因此基于人声特征进行聚类操作,能够得到可靠的聚类簇。
通过采用层次聚类的方式得到初始聚类簇,能够发现不同的人声特征之间的层次关系,使生成的初始聚类簇能够保持较均匀的分布,进而能够保证聚类性能。
步骤S106,基于K均值聚类对初始聚类簇进行修正,并确定修正后的聚类中心。
其中,在基于层次聚类得到初始聚类簇后,采用K均值,即K-Means算法继续聚类,实现聚类中心的优化,防止出现局部最优的现象。
步骤S108,根据分段语音与聚类中心之间的距离和距离分布,识别分段语音中的噪声。
其中,基于纯说话人声分段语音到其中一个聚类中心的距离较大,而到其它聚类中心的距离较小,而噪声分段语音到任意聚类中心的距离都较小的原理,执行噪声识别操作,以提升噪声识别的准确性。
步骤S110,对识别出的噪声执行噪声过滤操作,得到过滤后的语音信息。
其中,对识别出的噪声进行噪声过滤,具体可以为直接删除噪声分段语音,保留人声分段语音。
在该实施例中,通过提取分段语音中的人声特征,以基于人声特征执行聚类操作,得到聚类中心,并基于分段语音与聚类中心之间的聚类关系,识别噪声,并进一步删除噪声分段,以实现噪声过滤,该方案能够提升对彩铃、笑声、咳嗽声、背景人声、信道噪声等无效音频的过滤效果,进而有利于提升设置有本公开的噪声过滤模块的语音识别系统的识别性能,从而提升用户的使用体验。
如图2所示,在一个实施例中,步骤104,基于分段语音中的人声特征执行层次聚类操作,得到初始聚类簇,一种具体实现方式,包括:
步骤S202,基于滤波器组提取分段语音中的语音特征。
其中,基于滤波器组(Filter Banks)提取分段语音中的语音特征具体过程包括对分段语音执行预加重、分帧、加窗、短时傅里叶变换(short-time Fourier transform,或short-term Fourier transform,STFT)、mel滤波、去均值等操作,得到FBANK特征,即语音特征。
步骤S204,将语音特征输入延时神经网络,以得到由延时神经网络生成的输出特征。
其中,如图3所示,本发明利用延时神经网络(Time-Delay Neural Network,TDNN)分别由输入层302、隐层304和输出层306组成,将语音特征输入到输入层302,采用最后一层的隐层304的输出特征维度为60维的输出特征,作为提取到的人声特征。
具体地,采集一定数量的包含人声语音的音频数据,其中,音频数据中人声说话时长在60秒以上,对音频数据进行人声ID的标注,作为训练集,基于训练集对神经网络进行训练,采用交叉熵准则作为损失函数,得到训练后的人声特征输出模型。
步骤S206,计算输出特征的平均特征向量,将平均特征向量作为人声特征,以对人声特征执行层次聚类操作,得到初始聚类簇。
具体地,平均特征向量即d-vector,其计算方式如公式(1)所示:
其中,T表示该语音分段的总时长,以总帧数表示,Xt表示t时刻神经网络的输出特征,将输出特征累加后,除以总帧数T即为d-vector向量。
在该实施例中,通过对延时神经网络进行模型学习,得到基于延时神经网络的人声特征输出网络,通过从原始数据中自动获取人声特征,学习说话人敏感信息而屏蔽掉说话人无关信息,可以更好的表达人声特征,并且基于神经网络的人声特征可以有效利用特定领域数据进行训练,通过提高人声表征的提取效果,进一步提升基于人声特征确定的聚类中心的精度,以提升基于聚类中心识别噪声的识别效果。
如图4所示,在一个实施例中,步骤S206中,对人声特征执行层次聚类操作,得到初始聚类簇的具体实现方式,包括:
步骤S402,在分段语音中选择分段时长大于第一时长阈值的聚类分段语音,将聚类分段语音中的人声特征确定为聚类特征。
其中,由于分段语音的时长越长,从分段语音中提取到的人声特征的质量也就越好,表达也就越准确,因此通过预设第一时长阈值,采用第一时长阈值作为初始聚类簇的筛选条件,以选择大于第一时长的聚类分段语音中的人声特征作为聚类特征进行初始聚类操作。
步骤S404,对聚类特征执行自底向上的合并层次聚类操作,生成初始聚类簇。
具体地,根据层次分解的顺序是自底向上的还是自上向下的,层次聚类算法分为凝聚的层次聚类算法和分裂的层次聚类算法。
在本实施例中,采用自底向上的凝聚型层次聚类执行聚类操作,具体地,先将每个对象作为一个原子簇,然后合并原子簇为越来越大的簇,直到所有对象都在一个簇中,或者某个终结条件被满足。
基于采用最小距离的凝聚层次聚类算法流程包括:(1)将每个人声特征视作一类,计算两两人声特征之间的最小距离;(2)将距离最小的两个类合并成一个新类;(3)重新计算新类与所有类之间的距离;(4)重复步骤(2)和步骤(3),直到得到多个初始聚类簇。
如图4所示,在一个实施例中,步骤S基于K均值聚类对初始聚类簇进行修正,并确定修正后的聚类中心的具体实现方式,包括:
步骤S406,基于余弦相似度计算任意两个聚类特征之间的距离。
其中,由于余弦相似度距离比欧式距离的性能更好,因此基于余弦相似度距离检测两个聚类特征之间的距离,能够得到更好的检测效果。
余弦相似度计算方式如公式(2)所示:
Yi表示语音分段i的人声d-vector特征、Yj表示语音分段j的人声d-vector特征,N表示人声特征的特征维度,其中,余弦相似度值越大,表示两个人声特征属于同一人的概率越大。语音分段i和语音分段j之间的关系如式(3)所示。
步骤S408,基于距离修正初始聚类簇,得到修正聚类簇。
其中,K均值即k-means算法,以k为参数,把n个对象分成k个簇,使簇内具有较高的相似度,而簇间的相似度较低。
具体地,基于上述层次聚类得到的多个初始聚类簇,每个初始聚类簇初始地代表了一个簇的平均值或中心,对剩余的每个对象,根据其与各个初始聚类簇的聚类中心之间的距离,将它赋给最近的初始聚类簇,然后重新计算每个簇的平均值,即实现对聚类簇的聚类中心的修正。
进一步地,不断重复上述过程,直到准则函数收敛,其中,准则函数可以基于平方误差准则生成。
步骤S410,在每个修正聚类簇中,在聚类分段语音中选择分段时长大于第二时长阈值的中心分段语音。
其中,通过预设第二时长阈值,基于第二时长阈值进一步从聚类分段语音中选择质量更好的中心分段语音,以基于中心分段语音中的聚类特征生成修正后的聚类中心。
具体地,第二时长阈值大于第一时长阈值。
步骤S412,计算属于中心分段语音的平均特征向量的均值,得到中心特征向量,基于中心特征向量确定聚类中心。
在该实施例中,通过依次采用层次聚类和K-means聚类,对人声特征进行聚类,得到人声特征的聚类中心,实现了有监督的聚类操作,使聚类操作能够不受空间限制的影响,其中,层次聚类操作能够获得合理的初始聚类簇,K-means聚类在初始聚类簇的基础上基于余弦相似度进一步进行聚类操作,以得到精确的聚类中心,进而基于聚类中心进行噪声识别,以提升识别准确性。
在一个实施例中,还包括:在检测到聚类分段语音的分段时长均小于或等于第二时长阈值,停止执行噪声过滤操作。
在该实施例中,在检测到聚类分段语音的分段时长均小于或等于第二时长阈值时,表明聚类分段语音的时长都较短,基于这些聚类分段语音得到的聚类中心的准确性较差,可能将包含人声的分段语音进行过滤到,进而导致影响语音识别。
如图5所示,在一个实施例中,步骤S108,根据分段语音与聚类中心之间的距离和距离分布,识别分段语音中的噪声,一种具体实现方式,包括:
步骤S502,计算分段语音到每个聚类中心的余弦相似度距离。
其中,由于实网环境的复杂性,分段语音中往往会混入部分彩铃、笑声、咳嗽声、背景人声、信道噪声等数据,导致语音识别系统误转,为了改善该问题,从说话人角度生成聚类中心,基于分段语音和聚类中心之间的距离关系对噪声进行过滤和消除。
具体地,通过K-means聚类操作,得到K个聚类中心,以将聚类中心作为噪音识别的参照。由于纯说话人声分段语音到其中一个聚类中心的距离较大,而到其它聚类中心的距离较小,而噪声分段语音到任意聚类中心的距离都较小,通过分别计算每个分段语音和K个聚类中心之间的余弦相似度距离,如果分段语音和其中一个聚类中心之间的距离较大,表明该分段语音为人声分段,如果分段语音和所有的聚类中心之间的距离都较小,则可认为该分段语音为噪声语音。
步骤S504,统计余弦相似度距离的方差,方差用于表示距离分布。
其中,由于噪声分段到各个聚类中心的距离方差均较小,而语音分段到各个聚类中心的距离方差均较大,因此在检测余弦相似度距离的基础上,进一步检测距离分布情况,以保证基于聚类中心的余弦距离检测的可靠性。
步骤S506,在检测到任一分段语音对应的余弦相似度距离小于距离阈值,以及对应的方差小于方差阈值,则确定任一语音分段为噪声。
在一个实施例中,还包括:分别计算任意两个聚类中心之间的距离,得到多个余弦距离;计算多个余弦距离的均值,基于均值和可调节的惩罚参数生成距离阈值。
首先,针对距离阈值,通过计算两两聚类中心之间的余弦距离,然后取这些余弦距离的均值,然后在该均值的基础上增加一项惩罚项,即可调节的惩罚参数,即得到距离阈值,通过设置可调节的惩罚参数,可以实现对距离阈值的调节,以满足不同应用场景下的应用需求,其中,距离阈值的计算方式如公式(4)所示:
其中,K表示聚类中心个数,表示两两聚类中心任意组合的数量,λ为可调节的惩罚参数,λ取值在(-0.01,-0.05)之间。
其次,针对方差阈值,可以选取反映距离分布的标准差作为方差阈值,因为噪声到各个聚类中心的距离分布较平均,因此对应的方差较小,而语音段到各个聚类中心的距离分布不够平均,因此方差较大,从而可以通过设置适当阈值对噪声段进行过滤,方差对应的平均差如公式(5)和公式(6)所示:
其中,K表示聚类中心的个数,i表示第i个语音分段。
在该实施例中,通过分别合理的设置距离阈值和方差阈值,
另外,本领域的技术人员能够理解的是,本公开所描述的噪声过滤方法,可以只执行一次过滤操作,也可以在执行一次过滤操作,删除噪声分段后,对剩余的分段语音重新进行人声特征的输出,基于剩余的分段语音重新确定聚类中心,重新确定距离阈值和方差阈值,以重新检测是否还存在噪声分段,直至不在检测到余弦相似度距离小于距离阈值,且方差小于方差阈值的分段语音,这样能够尽可能地提升噪声过滤的效果。
如图6所示,根据本公开的一个实施例的噪声过滤方法,包括:
步骤S602,基于获取到的语音信息生成分段语音。
步骤S604,基于延时神经网络从分段语音中提取人声特征。
步骤S606,在分段语音中选择分段时长大于第一时长阈值的聚类分段语音,将聚类分段语音中的人声特征确定为聚类特征。
步骤S608,对聚类特征执行自底向上的合并层次聚类操作,生成初始聚类簇。
步骤S610,基于K-means聚类对初始聚类簇进行修正,得到修正聚类簇。
步骤S612,检测是否存在分段时长大于第二时长阈值的分段语音,若检测结果为“是”,则进入步骤S614,如果检测结果为“否”,则进入步骤S626。
步骤S614,在每个修正聚类簇中,在聚类分段语音中选择分段时长大于第二时长阈值的中心分段语音。
步骤S616,计算属于中心分段语音的平均特征向量的均值,得到中心特征向量,基于中心特征向量确定聚类中心。
步骤S618,计算分段语音到每个聚类中心的余弦相似度距离,并统计余弦相似度距离的方差。
步骤S620,检测任一分段语音对应的余弦相似度距离是否小于距离阈值,若检测结果为“是”,则进入步骤S622,如果检测结果为“否”,则进入步骤S626。
步骤S622,检测任一分段语音对应的方差是否小于方差阈值,若检测结果为“是”,则进入步骤S624,如果检测结果为“否”,则进入步骤S626。
步骤S624,识别为噪声分段并删除。
步骤S626,识别为人声分段,并进行语音识别操作。
上述实施例描述的噪声过滤方案中,主要涉及4个阈值参数,其中,第一时长阈值为初始聚类簇的筛选条件,一般取1s,第二时长阈值用于进一步从聚类分段语音中选择质量更好的中心分段语音,一般取大于1s的值,方差阈值一般取0.01,相似度距离阈值包含了对应惩罚项λ,以上4个参数均可以根据实际情况进行调节。
如图7所示,根据本公开的一个实施例的语音识别方法,包括:
步骤S702,基于语音端点检测操作对语音信息进行分段操作,得到初始分段。
步骤S704,对初始分段进行识别操作,以基于识别操作对初始分段执行分词处理,得到分段语音。
其中,由于语音端点检测操作对语音信息进行分段操作存在无法完全实现分段的缺陷,因此,采用语音识别模型中的分词模块,对初始分段基于分词间隔进行切分,以进一步得到分段语音,进而能够保证人声特征识别的可靠性和噪声识别与过滤的可靠性。
步骤S706,基于滤波器组提取分段语音中的语音特征。
步骤S708,将语音特征输入延时神经网络,以得到由延时神经网络生成的输出特征。
步骤S710,计算输出特征的平均特征向量,将平均特征向量作为人声特征,以对人声特征执行层次聚类操作,得到初始聚类簇。
步骤S712,利用K-Means对初始聚类簇进行修正得到修正聚类簇。
步骤S714,选取每个修正聚类簇中分段时长大于第二时长阈值的分段语音重新计算聚类中心,基于余弦相似度求距离阈值,其中,如果有一个修正聚类簇中分段语音的时长均小于或等于第二时长阈值,则直接执行语音识别操作。
步骤S716,计算分段语音到每个聚类中心的余弦相似度距离。
步骤S718,计算分段语音到每个聚类中心的距离方差。
步骤S720,如果分段语音到其中任意一个聚类中心的距离小于距离阈值并且方差小于方差阈值,则判定为噪声分段,否则判定为语音分段。
步骤S722,去除噪音,得到过滤后的语音信息,并修改聚类簇的聚类结果。
步骤S724,对过滤后的语音信息执行语音识别操作,得到识别结果。
需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下面参照图8来描述根据本发明的实施方式的语音噪声过滤装置800。图8所示的语音噪声过滤装置800仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
语音噪声过滤装置800以硬件模块的形式表现。语音噪声过滤装置800的组件可以包括但不限于:分段模块802,用于对输入的语音信息进行分段操作,得到分段语音;第一聚类模块804,用于基于分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;第二聚类模块806,用于基于K均值聚类对初始聚类簇进行修正,并确定修正后的聚类中心;第一识别模块808,用于根据分段语音与聚类中心之间的距离和距离分布,识别分段语音中的噪声;过滤模块810,用于对识别出的噪声执行噪声过滤操作,得到过滤后的语音信息。
在一个实施例中,第一聚类模块804还用于:基于滤波器组提取分段语音中的语音特征;将语音特征输入延时神经网络,以得到由延时神经网络生成的输出特征;计算输出特征的平均特征向量,将平均特征向量作为人声特征,以对人声特征执行层次聚类操作,得到初始聚类簇。
在一个实施例中,第一聚类模块804还用于:在分段语音中选择分段时长大于第一时长阈值的聚类分段语音,将聚类分段语音中的人声特征确定为聚类特征;对聚类特征执行自底向上的合并层次聚类操作,生成初始聚类簇。
在一个实施例中,第二聚类模块806还用于:基于余弦相似度计算任意两个聚类特征之间的距离;基于距离修正初始聚类簇,得到修正聚类簇;在每个修正聚类簇中,在聚类分段语音中选择分段时长大于第二时长阈值的中心分段语音;计算属于中心分段语音的平均特征向量的均值,得到中心特征向量,基于中心特征向量确定聚类中心。
在一个实施例中,还包括:控制模块812,用于在检测到聚类分段语音的分段时长均小于或等于第二时长阈值,停止执行噪声过滤操作。
在一个实施例中,第一识别模块808还用于:计算分段语音到每个聚类中心的余弦相似度距离;统计余弦相似度距离的方差,方差用于表示距离分布;在检测到任一分段语音对应的余弦相似度距离小于距离阈值,以及对应的方差小于方差阈值,则确定任一语音分段为噪声。
在一个实施例中,还包括:确定模块814,用于分别计算任意两个聚类中心之间的距离,得到多个余弦距离;计算多个余弦距离的均值,基于均值和可调节的惩罚参数生成距离阈值。
在一个实施例中,分段模块802还用于:基于语音端点检测操作对语音信息进行分段操作,得到初始分段;对初始分段执行分词处理,得到分段语音。
在一个实施例中,还包括:第二识别模块816,用于对过滤后的语音信息执行语音识别操作,得到识别结果。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图9来描述根据本发明的这种实施方式的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元910可以执行如图2中所示的步骤S102至步骤S110所描述的方案。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。
存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备970(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图10所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品1000,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (11)
1.一种语音噪声过滤方法,其特征在于,包括:
对输入的语音信息进行分段操作,得到分段语音;
基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;
基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心;
根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声,具体包括:计算所述分段语音到每个所述聚类中心的余弦相似度距离;统计所述余弦相似度距离的方差,所述方差用于表示所述距离分布;在检测到任一所述分段语音对应的所述余弦相似度距离小于距离阈值,以及对应的所述方差小于方差阈值,则确定任一所述语音分段为噪声;
对识别出的所述噪声执行噪声过滤操作,得到过滤后的所述语音信息。
2.根据权利要求1所述的语音噪声过滤方法,其特征在于,所述基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇,具体包括:
基于滤波器组提取所述分段语音中的语音特征;
将所述语音特征输入延时神经网络,以得到由所述延时神经网络生成的输出特征;
计算所述输出特征的平均特征向量,将所述平均特征向量作为所述人声特征,以对所述人声特征执行所述层次聚类操作,得到所述初始聚类簇。
3.根据权利要求2所述的语音噪声过滤方法,其特征在于,所述对所述人声特征执行所述层次聚类操作,得到所述初始聚类簇,具体包括:
在所述分段语音中选择分段时长大于第一时长阈值的聚类分段语音,将所述聚类分段语音中的所述人声特征确定为聚类特征;
对所述聚类特征执行自底向上的合并层次聚类操作,生成所述初始聚类簇。
4.根据权利要求3所述的语音噪声过滤方法,其特征在于,所述基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心,具体包括:
基于余弦相似度计算任意两个所述聚类特征之间的距离;
基于所述距离修正所述初始聚类簇,得到修正聚类簇;
在每个修正聚类簇中,在所述聚类分段语音中选择分段时长大于第二时长阈值的中心分段语音;
计算属于所述中心分段语音的所述平均特征向量的均值,得到中心特征向量,基于所述中心特征向量确定所述聚类中心。
5.根据权利要求4所述的语音噪声过滤方法,其特征在于,还包括:
在检测到所述聚类分段语音的分段时长均小于或等于所述第二时长阈值,停止执行噪声过滤操作。
6.根据权利要求1所述的语音噪声过滤方法,其特征在于,还包括:
分别计算任意两个所述聚类中心之间的距离,得到多个余弦距离;
计算所述多个余弦距离的均值,基于所述均值和可调节的惩罚参数生成所述距离阈值。
7.根据权利要求1至6中任一项所述的语音噪声过滤方法,其特征在于,所述对输入的语音信息进行分段操作,得到分段语音,具体包括:
基于语音端点检测操作对所述语音信息进行分段操作,得到初始分段;
对所述初始分段执行分词处理,得到所述分段语音。
8.根据权利要求1至6中任一项所述的语音噪声过滤方法,其特征在于,还包括:
对过滤后的所述语音信息执行语音识别操作,得到识别结果。
9.一种语音噪声过滤装置,其特征在于,包括:
分段模块,用于对输入的语音信息进行分段操作,得到分段语音;
第一聚类模块,用于基于所述分段语音中的人声特征执行层次聚类操作,得到初始聚类簇;
第二聚类模块,用于基于K均值聚类对所述初始聚类簇进行修正,并确定修正后的聚类中心;
识别模块,用于根据所述分段语音与所述聚类中心之间的距离和距离分布,识别所述分段语音中的噪声,具体包括:计算所述分段语音到每个所述聚类中心的余弦相似度距离;统计所述余弦相似度距离的方差,所述方差用于表示所述距离分布;在检测到任一所述分段语音对应的所述余弦相似度距离小于距离阈值,以及对应的所述方差小于方差阈值,则确定任一所述语音分段为噪声;
过滤模块,用于对识别出的所述噪声执行噪声过滤操作,得到过滤后的所述语音信息。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~8中任意一项所述语音噪声过滤方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~8中任意一项所述的语音噪声过滤方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110995096.XA CN113593597B (zh) | 2021-08-27 | 2021-08-27 | 语音噪声过滤方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110995096.XA CN113593597B (zh) | 2021-08-27 | 2021-08-27 | 语音噪声过滤方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113593597A CN113593597A (zh) | 2021-11-02 |
CN113593597B true CN113593597B (zh) | 2024-03-19 |
Family
ID=78239970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110995096.XA Active CN113593597B (zh) | 2021-08-27 | 2021-08-27 | 语音噪声过滤方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113593597B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113808578B (zh) * | 2021-11-16 | 2022-04-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 音频信号处理方法、装置、设备及存储介质 |
CN116955934A (zh) * | 2023-09-21 | 2023-10-27 | 晨达(广州)网络科技有限公司 | 一种网络传输数据降噪方法、装置、计算设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102324232A (zh) * | 2011-09-12 | 2012-01-18 | 辽宁工业大学 | 基于高斯混合模型的声纹识别方法及系统 |
CN103337248A (zh) * | 2013-05-17 | 2013-10-02 | 南京航空航天大学 | 一种基于时间序列核聚类的机场噪声事件识别方法 |
CN104778951A (zh) * | 2015-04-07 | 2015-07-15 | 华为技术有限公司 | 语音增强的方法和装置 |
CN107251138A (zh) * | 2015-02-16 | 2017-10-13 | 杜比实验室特许公司 | 分离音频源 |
CN112420069A (zh) * | 2020-11-18 | 2021-02-26 | 北京云从科技有限公司 | 一种语音处理方法、装置、机器可读介质及设备 |
CN112837704A (zh) * | 2021-01-08 | 2021-05-25 | 昆明理工大学 | 一种基于端点检测的语音背景噪声识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4548646B2 (ja) * | 2003-09-12 | 2010-09-22 | 株式会社エヌ・ティ・ティ・ドコモ | 音声モデルの雑音適応化システム、雑音適応化方法、及び、音声認識雑音適応化プログラム |
CN107564513B (zh) * | 2016-06-30 | 2020-09-08 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
-
2021
- 2021-08-27 CN CN202110995096.XA patent/CN113593597B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102324232A (zh) * | 2011-09-12 | 2012-01-18 | 辽宁工业大学 | 基于高斯混合模型的声纹识别方法及系统 |
CN103337248A (zh) * | 2013-05-17 | 2013-10-02 | 南京航空航天大学 | 一种基于时间序列核聚类的机场噪声事件识别方法 |
CN107251138A (zh) * | 2015-02-16 | 2017-10-13 | 杜比实验室特许公司 | 分离音频源 |
CN104778951A (zh) * | 2015-04-07 | 2015-07-15 | 华为技术有限公司 | 语音增强的方法和装置 |
CN112420069A (zh) * | 2020-11-18 | 2021-02-26 | 北京云从科技有限公司 | 一种语音处理方法、装置、机器可读介质及设备 |
CN112837704A (zh) * | 2021-01-08 | 2021-05-25 | 昆明理工大学 | 一种基于端点检测的语音背景噪声识别方法 |
Non-Patent Citations (4)
Title |
---|
一种基于衰减-时延聚类估计的欠定语音盲分离算法;陈林;夏秀渝;代勇;周宁;;四川大学学报(自然科学版)(第05期);全文 * |
基于LMS的语音信号去噪算法;陈景良;李东新;;国外电子测量技术(第06期);全文 * |
基于最小方差的自适应K-均值初始化方法;肖洋;李平;王鹏;邱宁佳;;长春理工大学学报(自然科学版)(第05期);全文 * |
复杂噪声场景下的活动语音检测方法;郭武;马啸空;;清华大学学报(自然科学版)(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113593597A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11508366B2 (en) | Whispering voice recovery method, apparatus and device, and readable storage medium | |
CN110853666B (zh) | 一种说话人分离方法、装置、设备及存储介质 | |
CN107799126B (zh) | 基于有监督机器学习的语音端点检测方法及装置 | |
JP2021516369A (ja) | 混合音声の認識方法、装置及びコンピュータ可読記憶媒体 | |
US8554563B2 (en) | Method and system for speaker diarization | |
US8543402B1 (en) | Speaker segmentation in noisy conversational speech | |
CN113593597B (zh) | 语音噪声过滤方法、装置、电子设备和介质 | |
CN111916061B (zh) | 语音端点检测方法、装置、可读存储介质及电子设备 | |
WO2021151310A1 (zh) | 语音通话的噪声消除方法、装置、电子设备及存储介质 | |
CN111739539A (zh) | 确定说话人数量的方法、装置及存储介质 | |
WO2021082941A1 (zh) | 视频人物识别方法、装置、存储介质与电子设备 | |
CN111540342B (zh) | 一种能量阈值调整方法、装置、设备及介质 | |
CN112397093B (zh) | 一种语音检测方法与装置 | |
CN111369981A (zh) | 一种方言地域识别方法、装置、电子设备及存储介质 | |
CN113628612A (zh) | 语音识别方法、装置、电子设备及计算机可读存储介质 | |
CN110827799B (zh) | 用于处理语音信号的方法、装置、设备和介质 | |
CN110837758A (zh) | 一种关键词输入方法、装置及电子设备 | |
US11776532B2 (en) | Audio processing apparatus and method for audio scene classification | |
CN112992175B (zh) | 一种语音区分方法及其语音记录装置 | |
CN112735432B (zh) | 音频识别的方法、装置、电子设备及存储介质 | |
CN115565533A (zh) | 语音识别方法、装置、设备及存储介质 | |
CN116705016A (zh) | 语音交互设备的控制方法、装置、电子设备和介质 | |
CN115294974A (zh) | 一种语音识别方法、装置、设备和存储介质 | |
JP2003271190A (ja) | 雑音除去方法、雑音除去装置及び、それを用いた音声認識装置 | |
WO2019183747A1 (zh) | 语音检测的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |