CN112201258A - 一种基于ambp的噪声鲁棒性伪装语音检测方法 - Google Patents

一种基于ambp的噪声鲁棒性伪装语音检测方法 Download PDF

Info

Publication number
CN112201258A
CN112201258A CN202011102336.0A CN202011102336A CN112201258A CN 112201258 A CN112201258 A CN 112201258A CN 202011102336 A CN202011102336 A CN 202011102336A CN 112201258 A CN112201258 A CN 112201258A
Authority
CN
China
Prior art keywords
voice
speech
ambp
frame
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011102336.0A
Other languages
English (en)
Inventor
简志华
金易帆
钟华
孙闽红
朱雅楠
于佳祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011102336.0A priority Critical patent/CN112201258A/zh
Publication of CN112201258A publication Critical patent/CN112201258A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/20Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于AMBP的噪声鲁棒性伪装语音检测方法,包括:S11.将含噪声的语音转换为语谱图;S12.采用自适应中位数二进制模式AMBP算法对语谱图进行特征提取,得到语音的纹理特征向量;S13.利用得到的语音纹理特征向量训练支持向量机,得到语音分类模型,并利用语音分类模型对语音进行检测分类,得到分类结果。本发明大大提高了伪装语音检测的效果。

Description

一种基于AMBP的噪声鲁棒性伪装语音检测方法
技术领域
本发明涉及语音分类技术领域,尤其涉及一种基于AMBP的噪声鲁棒性伪装语音检测方法。
背景技术
近年来,基于生物特征比如指纹、人脸和语音等的身份认证技术发展迅速,其中以语音作为生物身份特征的自动说话人认证技术有了很大的发展,是一种可靠的低成本的身份认证技术。但是一般的传统说话人认证技术容易受到恶意的伪装语音的攻击,使其识别准确率大大下降,近年来很多研究表明伪装语音对说话人认证系统具有很大的欺骗性,于是研究伪装语音检测方法就显得格外重要。伪装语音检测方法是通过对说话人的语音进行分析,提取语音信号的幅度谱特征或者相位谱特征,并采用鉴别器判决出它是真实说话人的语音还是伪装语音。实际情况下,系统面对的大都是未知的伪装语音的攻击,而使用传统的幅度谱特征或者相位谱特征时,效果往往不是很理想。并且大部分的伪装语音检测方法都是在高信噪比的环境下进行的,而实际应用时,待检测语音经常会包含噪声,这种情况下会使得伪装语音检测的效果大大下降。
因此,本发明提出一种基于AMBP的噪声鲁棒性伪装语音检测方法。
发明内容
本发明的目的是针对现有技术的缺陷,提供了一种基于AMBP的噪声鲁棒性伪装语音检测方法。
为了实现以上目的,本发明采用以下技术方案:
一种基于AMBP的噪声鲁棒性伪装语音检测方法,包括:
S1.将含噪声的语音转换为语谱图;
S2.采用自适应中位数二进制模式AMBP算法对语谱图进行特征提取,得到语音的纹理特征向量;
S3.利用得到的语音纹理特征向量训练支持向量机,得到语音分类模型,并利用语音分类模型对语音进行检测分类,得到分类结果。
进一步的,所述步骤S1具体包括:
S11.获取含噪声的语音;
S12.对获取的含噪声的语音中的语音信号进行分帧加窗处理,得到多帧短时语音信号,并对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换;
S13.计算进行快速傅里叶变换后的每一帧语音信号的能量谱密度,得到每一帧语音信号的能量谱密度;
S14.对得到的能量谱密度取对数,并进行灰度映射处理,得到含噪声的语音的语谱图。
进一步的,所述步骤S11中获取含噪声的语音,表示为:
x(n)=s(n)+d(n)
其中,x(n)表示含噪声的语音信号,s(n)表示纯净语音信号,d(n)表示噪声信号。
进一步的,所述步骤S12中对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换,表示为:
Figure BDA0002725811420000021
其中,m表示每一帧的采样点数,0<m<M-1;X(n,k)表示第n帧语音的频谱。
进一步的,所述步骤S13中得到每一帧语音信号的能量谱密度,表示为:
E(n,k)=|X(n,k)|2=XR(n,k)2+XI(n,k)2
其中,E(n,k)表示每一帧语音信号的能量谱密度;XR(n,k)和XI(n,k)分别表示X(n,k)的实部和虚部。
进一步的,所述步骤S14中对得到的能量谱密度取对数,表示为:
P(n,k)=10log10E(n,k)=10log10|X(n,k)|2=20log10|X(n,k)|
将第n帧语音信号计算得到了m个P(n,k)值,并进行灰度映射处理,得到含噪声的语音的语谱图,表示为:
Figure BDA0002725811420000031
其中,H(n,k)表示第n帧的第k个值转换的灰度值;P(n,k)表示第n帧的第k个对数能量谱的值;Pmin(n,k)表示第n帧中最小的值;Pmax(n,k)表示第n帧中最大的值。
进一步的,所述步骤S2具体为:采用自适应中位数二进制模式AMBP算法分析整个语谱图,得到纹理特征模式图,并对得到的纹理特征模式图进行统计,得到语音的纹理特征向量。
进一步的,所述步骤S3中训练支持向量机具体为:
提取真实语音库和伪装语音库中所有语音信号的特征向量作为支持向量机的训练集,并对训练集设置标签,表示为:
(xi,yi),i=1,2,3,..,N,xi∈Rn,yi∈[-1,1]
其中,N表示训练样本的总数;n表示样本空间的维数;yi表示样本的分类类别;yi=1表示伪装语音;yi=-1表示真实语音;
选用径向基核函数,并引入参数γ和错误惩罚因子C同时进行优化,训练最优支持向量确定一个最优超平面,得到目标函数,表示为:
Figure BDA0002725811420000032
Figure BDA0002725811420000033
采用的径向基核函数,表示为:
Figure BDA0002725811420000034
其中,αi表示每个样本对应的拉格朗日乘子;错误惩罚因子C在确定径向基核函数后,控制错误分类样本的惩罚程度;解中只有一部分αi不为零,所对应的样本为训练所得的支持向量;
求解α,得到语音分类模型,表示为:
Figure BDA0002725811420000035
其中,b表示分类阈值;xi表示第i个样本向量;xj表示核函数中心(标记向量)。
与现有技术相比,本发明通过将含噪语音变换为语谱图,并利用自适应中位数二进制模式(Adaptive Median Binary Pattern,AMBP)算法对语谱图进行特征提取来代替传统的特征,并用提取到的特征向量训练支持向量机(Support Vector Machine,SVM)来对语音进行检测分类,大大提高了伪装语音检测的效果。
附图说明
图1是实施例一提供的一种基于AMBP的噪声鲁棒性伪装语音检测方法流程图;
图2是实施例一提供的基于AMBP的噪声鲁棒性伪装语音检测的系统框架结构图;
图3是实施例一提供的生成语谱图的流程框架结构图;
图4是实施例一提供的AMBP算法流程图;
图5是实施例一提供的SVM分类表示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
本发明的目的是针对现有技术的缺陷,提供了一种基于AMBP的噪声鲁棒性伪装语音检测方法。
实施例一
本实施例提供一种基于AMBP的噪声鲁棒性伪装语音检测方法,如图1-2所示,包括:
S11.将含噪声的语音转换为语谱图;
S12.采用自适应中位数二进制模式AMBP算法对语谱图进行特征提取,得到语音的纹理特征向量;
S13.利用得到的语音纹理特征向量训练支持向量机,得到语音分类模型,并利用语音分类模型对语音进行检测分类,得到分类结果。
在步骤S11中,将含噪声的语音转换为语谱图。如图3所示为语谱图的生成过程示意图,具体包括:
S111.获取含噪声的语音;
获取含噪声的语音,表示为:
x(n)=s(n)+d(n)
其中,x(n)表示含噪声的语音信号,s(n)表示纯净语音信号,d(n)表示噪声信号。
由于语音信号s(n)和噪声信号d(n)被认为是不相关的,即E[s(n)d(n)]=0,所以含噪语音信号的频谱可以表示为语音信号的频谱和噪声信号的频谱的叠加,即
X(ω)=S(ω)+D(ω)
语谱图也叫做语音频谱图,其横坐标为时间轴,纵坐标为频率,坐标点的灰度值表示语音频谱幅度,这样语音的某个时刻的某个频点的幅度就可以用对应的灰度值来表示。
S112.对获取的含噪声的语音中的语音信号进行分帧加窗处理,得到多帧短时语音信号,并对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换;
对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换(FFT),表示为:
Figure BDA0002725811420000051
其中,m表示每一帧的采样点数,0<m<M-1;X(n,k)表示第n帧语音的频谱。
S113.计算进行快速傅里叶变换后的每一帧语音信号的能量谱密度,得到每一帧语音信号的能量谱密度;
对每一帧语音做了FFT之后得到的是一组复数,然后计算每一帧的能量谱密度,得到每一帧语音信号的能量谱密度,表示为:
E(n,k)=|X(n,k)|2=XR(n,k)2+XI(n,k)2
其中,E(n,k)表示每一帧语音信号的能量谱密度;XR(n,k)和XI(n,k)分别表示X(n,k)的实部和虚部。
S114.对得到的能量谱密度取对数,并进行灰度映射处理,得到含噪声的语音的语谱图。
对得到的能量谱密度取对数,表示为:
P(n,k)=10log10E(n,k)=10log10|X(n,k)|2=20log10|X(n,k)|
将第n帧语音信号计算得到了m个P(n,k)值,并进行灰度映射处理(即转换为灰度值),得到含噪声的语音的语谱图,表示为:
Figure BDA0002725811420000061
其中,H(n,k)表示第n帧的第k个值转换的灰度值;P(n,k)表示第n帧的第k个对数能量谱的值;Pmin(n,k)表示第n帧中最小的值;Pmax(n,k)表示第n帧中最大的值。然后分别以n和k为横坐标和纵坐标,H(n,k)为数值大小生成二维灰度值图像。
在步骤S12中,采用自适应中位数二进制模式AMBP算法对语谱图进行特征提取,得到语音的纹理特征向量。
本实施例采用自适应中位数二进制模式AMBP算法分析整个语谱图,得到纹理特征模式图,并对得到的纹理特征模式图进行统计,得到语音的纹理特征向量。
传统的特征提取采用的是LBP算法或MBP算法,采用传统的算法时,效果往往不是很理想,并且大部分的伪装语音检测方法都是在高信噪比的环境下进行的,而实际应用时,待检测语音经常会包含噪声,这种情况下会使得伪装语音检测的效果大大下降。因此,本实施例为了解决采用传统算法存在的问题,提出了采用自适应中位数二进制模式(AdaptiveMedian Binary Pattern,AMBP)对语谱图提取特征参数,其算法流程如图4所示。AMBP以某一像素点的3×3分析窗口开始,计算窗口内的中心像素值(ZI)、最小值(Zmin)、最大值(Zmax)和中位数(Zmed),如果Zmin<Zmed<Zmax,则阈值大小取决于该3×3窗口,否则分析窗口向各个方向扩展1,变成5×5窗口,以此类推。确定分析窗口之后,如果Zmin<ZI<Zmax,则阈值取分析窗口的中心像素灰度值,否则阈值取分析窗口内的中位数,确定阈值后,在3×3窗口内计算该像素点的二进制模式。用AMBP分析整个图像矩阵得到纹理特征模式图,然后统计各种模式的数目得到纹理特征向量。
AMBP使用局部自适应的分析窗口来生成二进制模式。AMBP的分析窗口大小可以随着像素点的变化而改变,而生成的二进制模式大小不发生变化,AMBP可以使用超过该像素点3×3邻域的分析窗口内的值作为阈值,而在生成二进制模式时只使用3×3的局部邻域。AMBP使用自适应分析窗口内的中心像素或者中位数作为阈值,使其结合了LBP和MBP的特性。AMBP根据局部变化使用自适应的分析窗口来生成二进制模式,使二进制模式多样化,以达到更好的识别性能。
在步骤S13中,利用得到的语音纹理特征向量训练支持向量机,得到语音分类模型,并利用语音分类模型对语音进行检测分类,得到分类结果。
支持向量机(Support Vector Machine,SVM)是机器学习中一个重要的分类器,本专利选用SVM作伪装语音检测。SVM可以归结为数学中二次优化问题的解决方案,其实质是找出用于区分各类训练样本的最优分类超平面的支持向量。对于在特征空间内线性可分的各类训练集样本,可以将它们正确区分开的超平面有无穷多个,但是使得各类训练样本距分类超平面的几何间隔最大的超平面是唯一的。SVM选择训练集中几何间隔最大的超平面作为分类面的分类效果最好,对于未知的测试样本有较好的分类预测功能。如图5所示,方形和圆形表示两类数据集合,y=0为超平面,y=1和y=-1之间的距离为分类间隔,落在直线y=1和y=-1上的点称为样本点,这些点离最优超平面y=0最近,是SVM计算时比较重要的点,所以也被称为支持向量。
训练支持向量机SVM具体过程如下:
提取真实语音库和伪装语音库中所有语音信号的特征向量作为支持向量机SVM的训练集,并对训练集设置标签,表示为:
(xi,yi),i=1,2,3,...,N,xi∈Rn,yi∈[-1,1]
其中,N表示训练样本的总数;n表示样本空间的维数;yi表示样本的分类类别;yi=1表示伪装语音;yi=-1表示真实语音;
选用径向基核函数(Radial Basic Function,RBF),并引入参数γ和错误惩罚因子C同时进行优化,来训练最优支持向量确定一个最优超平面,得到目标函数,表示为:
Figure BDA0002725811420000081
Figure BDA0002725811420000082
采用的径向基RBF核函数,表示为:
Figure BDA0002725811420000083
其中,αi表示每个样本对应的拉格朗日乘子;错误惩罚因子C在确定径向基核函数后,控制错误分类样本的惩罚程度;解中只有一部分αi不为零,所对应的样本为训练所得的支持向量;
求解出α之后就可以得到语音分类模型,表示为:
Figure BDA0002725811420000084
其中,b表示分类阈值,可由支持向量求得;xi表示第i个样本向量;xj表示核函数中心(标记向量)。应用此分类决策函数可对待识别的语音信号的特征分类,达到区分真伪语音的目的。
本实施例通过将含噪语音变换为语谱图,并利用自适应中位数二进制模式(Adaptive Median Binary Pattern,AMBP)算法对语谱图进行特征提取来代替传统的特征,并用提取到的特征向量训练支持向量机(Support Vector Machine,SVM)来对语音进行检测分类,大大提高了伪装语音检测的效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,包括:
S1.将含噪声的语音转换为语谱图;
S2.采用自适应中位数二进制模式AMBP算法对语谱图进行特征提取,得到语音的纹理特征向量;
S3.利用得到的语音纹理特征向量训练支持向量机,得到语音分类模型,并利用语音分类模型对语音进行检测分类,得到分类结果。
2.根据权利要求1所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S1具体包括:
S11.获取含噪声的语音;
S12.对获取的含噪声的语音中的语音信号进行分帧加窗处理,得到多帧短时语音信号,并对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换;
S13.计算进行快速傅里叶变换后的每一帧语音信号的能量谱密度,得到每一帧语音信号的能量谱密度;
S14.对得到的能量谱密度取对数,并进行灰度映射处理,得到含噪声的语音的语谱图。
3.根据权利要求2所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S11中获取含噪声的语音,表示为:
x(n)=s(n)+d(n)
其中,x(n)表示含噪声的语音信号,s(n)表示纯净语音信号,d(n)表示噪声信号。
4.根据权利要求3所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S12中对多帧短时语音信号中的每一帧语音信号进行快速傅里叶变换,表示为:
Figure FDA0002725811410000011
其中,m表示每一帧的采样点数,0<m<M-1;X(n,k)表示第n帧语音的频谱。
5.根据权利要求4所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S13中得到每一帧语音信号的能量谱密度,表示为:
E(n,k)=|X(n,k)|2=XR(n,k)2+XI(n,k)2
其中,E(n,k)表示每一帧语音信号的能量谱密度;XR(n,k)和XI(n,k)分别表示X(n,k)的实部和虚部。
6.根据权利要求5所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S14中对得到的能量谱密度取对数,表示为:
P(n,k)=10log10E(n,k)=10log10|X(n,k)|2=20log10|X(n,k)|
将第n帧语音信号计算得到了m个P(n,k)值,并进行灰度映射处理,得到含噪声的语音的语谱图,表示为:
Figure FDA0002725811410000021
其中,H(n,k)表示第n帧的第k个值转换的灰度值;P(n,k)表示第n帧的第k个对数能量谱的值;Pmin(n,k)表示第n帧中最小的值;Pmax(n,k)表示第n帧中最大的值。
7.根据权利要求1所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S2具体为:采用自适应中位数二进制模式AMBP算法分析整个语谱图,得到纹理特征模式图,并对得到的纹理特征模式图进行统计,得到语音的纹理特征向量。
8.根据权利要求1所述的一种基于AMBP的噪声鲁棒性伪装语音检测方法,其特征在于,所述步骤S3中训练支持向量机具体为:
提取真实语音库和伪装语音库中所有语音信号的特征向量作为支持向量机的训练集,并对训练集设置标签,表示为:
(xi,yi),i=1,2,3,...,N,xi∈Rn,yi∈[-1,1]
其中,N表示训练样本的总数;n表示样本空间的维数;yi表示样本的分类类别;yi=1表示伪装语音;yi=-1表示真实语音;
选用径向基核函数,并引入参数γ和错误惩罚因子C同时进行优化,训练最优支持向量确定一个最优超平面,得到目标函数,表示为:
Figure FDA0002725811410000031
Figure FDA0002725811410000032
采用的径向基核函数,表示为:
Figure FDA0002725811410000033
其中,αi表示每个样本对应的拉格朗日乘子;错误惩罚因子C在确定径向基核函数后,控制错误分类样本的惩罚程度;解中只有一部分αi不为零,所对应的样本为训练所得的支持向量;
求解α,得到语音分类模型,表示为:
Figure FDA0002725811410000034
其中,b表示分类阈值;xi表示第i个样本向量;xj表示核函数中心(标记向量)。
CN202011102336.0A 2020-10-15 2020-10-15 一种基于ambp的噪声鲁棒性伪装语音检测方法 Pending CN112201258A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011102336.0A CN112201258A (zh) 2020-10-15 2020-10-15 一种基于ambp的噪声鲁棒性伪装语音检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011102336.0A CN112201258A (zh) 2020-10-15 2020-10-15 一种基于ambp的噪声鲁棒性伪装语音检测方法

Publications (1)

Publication Number Publication Date
CN112201258A true CN112201258A (zh) 2021-01-08

Family

ID=74009068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011102336.0A Pending CN112201258A (zh) 2020-10-15 2020-10-15 一种基于ambp的噪声鲁棒性伪装语音检测方法

Country Status (1)

Country Link
CN (1) CN112201258A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522448A (zh) * 2018-10-18 2019-03-26 天津大学 一种基于crbm和snn进行鲁棒性语音性别分类的方法
CN109524014A (zh) * 2018-11-29 2019-03-26 辽宁工业大学 一种基于深度卷积神经网络的声纹识别分析方法
CN110148425A (zh) * 2019-05-14 2019-08-20 杭州电子科技大学 一种基于完整局部二进制模式的伪装语音检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522448A (zh) * 2018-10-18 2019-03-26 天津大学 一种基于crbm和snn进行鲁棒性语音性别分类的方法
CN109524014A (zh) * 2018-11-29 2019-03-26 辽宁工业大学 一种基于深度卷积神经网络的声纹识别分析方法
CN110148425A (zh) * 2019-05-14 2019-08-20 杭州电子科技大学 一种基于完整局部二进制模式的伪装语音检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ADEL HAFIANE ET AL.: "Adaptive Median Binary Patterns for Texture Classification", 《2014 22ND INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *

Similar Documents

Publication Publication Date Title
CN108600135B (zh) 一种信号调制方式的识别方法
CN109444728A (zh) 一种基于动态加权混合聚类算法的断路器故障诊断方法
CN113571067B (zh) 一种基于边界攻击的声纹识别对抗样本生成方法
CN110120230B (zh) 一种声学事件检测方法及装置
CN114492768A (zh) 一种基于小样本学习的孪生胶囊网络入侵检测方法
CN113436646B (zh) 一种采用联合特征与随机森林的伪装语音检测方法
CN112560596B (zh) 一种雷达干扰类别识别方法及系统
CN111488801A (zh) 基于振动噪声识别的船舶分类方法
CN112637834B (zh) 一种无线通信设备的指纹融合识别方法及装置
Wu et al. Adversarial sample detection for speaker verification by neural vocoders
CN111816185A (zh) 一种对混合语音中说话人的识别方法及装置
CN110956613A (zh) 基于图像质量的目标检测算法性能归一化评价方法及系统
CN115510909A (zh) 一种dbscan进行异常声音特征的无监督算法
CN115932898A (zh) 一种卫星导航系统的高效干扰识别方法
CN114519372B (zh) 基于支持向量机的一维距离像目标识别方法
CN111325143A (zh) 一种数据集不均衡条件下的水下目标识别方法
CN113109782B (zh) 一种直接应用于雷达辐射源幅度序列的分类方法
CN114694640A (zh) 基于音频频谱图的异常声音提取识别方法及装置
KR102013392B1 (ko) Ft-ir 기반 분광 스펙트럼에서 svm 분류기를 이용한 가스 탐지 방법
CN111783789A (zh) 一种图像敏感信息识别方法
CN112201258A (zh) 一种基于ambp的噪声鲁棒性伪装语音检测方法
CN116318877A (zh) 利用多种特征流形向量的入侵检测系统对抗样本防御方法
CN113951898B (zh) 数据迁移的p300脑电信号检测方法及装置、电子设备、介质
CN114745187A (zh) 一种基于pop流量矩阵的内部网络异常检测方法及系统
Chen et al. Texture features and unsupervised learning-incorporated rain-contaminated region identification from X-band marine radar images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210108

RJ01 Rejection of invention patent application after publication