CN113012684B - 一种基于语音分割的合成语音检测方法 - Google Patents

一种基于语音分割的合成语音检测方法 Download PDF

Info

Publication number
CN113012684B
CN113012684B CN202110237780.1A CN202110237780A CN113012684B CN 113012684 B CN113012684 B CN 113012684B CN 202110237780 A CN202110237780 A CN 202110237780A CN 113012684 B CN113012684 B CN 113012684B
Authority
CN
China
Prior art keywords
voice
segments
cqcc
gmm
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110237780.1A
Other languages
English (en)
Other versions
CN113012684A (zh
Inventor
詹瑾瑜
江维
蒲治北
杨永佳
边晨
雷洪
江昱呈
于安泰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110237780.1A priority Critical patent/CN113012684B/zh
Publication of CN113012684A publication Critical patent/CN113012684A/zh
Application granted granted Critical
Publication of CN113012684B publication Critical patent/CN113012684B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开一种基于语音分割的合成语音检测方法,应用于语音检测领域,针对现有技术的检测精度低的问题,本发明提取音频中的两种特征:有声片段的CQCC特征,提取音频的无声(静音)片段的平均过零率特征;然后采用两个GMM模型分别对两种特征进行拟合,并对两个GMM赋予不同的权值并测试,找到最合适的权重;显著提升了合成语音的检测精度。

Description

一种基于语音分割的合成语音检测方法
技术领域
本发明属于语音检测领域,特别涉及一种合成语音检测技术。
背景技术
随着人工智能的发展,嵌入式设备发生了巨大的变化。图像识别和人脸解锁在嵌入式设备中的应用极大地方便了生产和生活。语音识别作为声学人工智能的代表,在语音助手、语音打印解锁等嵌入式设备中得到了越来越广泛的应用。语音识别技术是指通过识别和分析过程使计算机能够将语音信号转换为相应的文本或命令的技术。自动说话人验证(ASV)是一种语音识别技术,通过区分人语音的语音打印特征来识别个体。在许多情况下,ASV技术可以取代传统的密码身份验证。成为一种方便有效的认证方法,可以易于应用于远程人员身份验证。
但是,由于表示攻击(PA)以及语音信号比起比其他人类特征(如指纹,虹膜等)更加容易被盗的特性,ASV系统容易受到PA的攻击。
现有ASV系统欺骗方法中,模仿攻击危害较小,其攻击效果与攻击者和目标受害人语音相似程度以及ASV系统鲁棒性有直接关系。重放语音攻击可通过增加语音内容的时效性进行有效防御。合成语音攻击对ASV系统威胁程度较大,其不受内容时效性影响。转换语音攻击原理和合成语音攻击相似,对ASV系统威胁程度较大。同时这两种攻击也经常出现在其他的语音识别技术的应用场景,如电话诈骗等。本发明正是针对嵌入式语音设备提出的有效检测出合成语音的系统。
目前对合成语音的检测方法主要分为三步,特征提取、模型训练和模型分类。语音特征提取方法大多根据生物结构特征(如人耳识别声波所依靠的结构特征)对语音倒谱系数进行提取。常见的倒谱系数有线性频率倒谱系数(LFCC)、梅尔频率倒谱系数(MFCC)、瞬时频率耳蜗滤波器倒谱系数(CFCCIF)、无限脉冲响应常数Q变换倒谱系数(ICQC)、基于恒定Q变换(CQT)的倒谱系数CQCC等。模型分类主要有生成法、判别法和基于DNN的端到端分类法等。目前采用生成法的大多数检测系统都采用了GMM分类器,在分类阶段,处理输入语音以获得其相对于自然语音GMM和合成语音GMM的可能性,并通过得分高低判断输入语音是否为合成语音。
发明内容
为解决上述技术问题,本发明提出一种基于语音分割的合成语音检测方法,基于语音分割训练的多个GMM模型为基础来判别输入语音是否为合成语音。
本发明采用的技术方案为:一种基于语音分割的合成语音检测方法,分别将自然语音和合成语音提取到的CQCC特征输入到两个初始化后的GMM模型值中进行训练,采用训练完成的GMM模型对输入的语音进行检测,得到检测结果。
训练具体为训练4个GMM模型,自然语音数据集与合成语音数据集各训练两个GMM模型。
自然语音数据集对应的两个GMM模型的训练过程为:
将自然语音数据集进行预处理得到分割后的语音片段和无声片段,对有声片段进行CQCC特征提取,对无声片段计算其过零率;
将CQCC和过零率分别输入两个GMM模型进行训练,更新其参数;
达到预设的训练次数,最终得到参数训练好的GMM模型。
合成语音数据集对应的两个GMM模型的训练过程为:
将合成语音数据集进行预处理得到分割后的语音片段和无声片段,对有声片段进行CQCC特征提取,对无声片段计算其过零率;
将CQCC和过零率分别输入两个GMM模型进行训练,更新其参数;
达到预设的训练次数,最终得到参数训练好的GMM模型。
所述预处理具体为:
从自然语音数据集或合成语音数据集中获取全部的训练数据,并检查语音识别的采样率;
判断采样率是否为16kHz,若否,则使用工具包sox转换语音采样率为16kHz,当语音采样率为16kHz时,使用语音强制对齐工具p2fa检测语音信号的端点,以此标记语音句子中每个单词的开始和结束位置;
根据标记的端点进行语音切割,将语音数据分割为单词片段以及无声片段。
所述CQCC特征提取,包括以下分步骤:
将有声片段进行预加重处理;
将预加重处理后的有声片段按10ms分为短段,每段之间有部分重叠;然后进行加窗;
进行恒定Q变换,然后将幅度平方取对数获得功率谱,对功率谱进行均匀采样,最后进行离散余弦变换,得到CQCC系数。
还包括对训练好的两个GMM模型进行加权求和,通过分别对两个GMM模型赋予不同的权重并测试准确率,两个GMM模型权重之和为1,选择准确率最大值对应的权重作为两个GMM模型的权重。
检测过程具体为:
将输入的完整语音按照单词进行分片,同时产生无声的静默片段;
对语音片段进行CQCC特征提取,并计算无声部分的过零率;
将CQCC和过零率输入已经训练好的GMM模型进行推断,得出检测结果。
本发明的有益效果:本发明基于语音分割训练的多个GMM模型为基础来判别输入语音是否为合成语音,本发明提取音频中的两种特征:有声片段的CQCC特征,对于音频的无声(静音)片段,计算其平均过零率;然后两个GMM模型分别对两种特征进行了拟合,然后对两个GMM赋予不同的权值并测试,找到最合适的权重;相比于传统检测方法,本发明的方法检测精度更高,本发明的方法具备以下优点:
1.提出了一种模拟感知特征提取方法,用于欺骗语音检测和两种相应的训练方法SW_CQCC和AZCR,以提高检测精度;
2.设计BDS策略,确定如何对两种训练方法进行综合判断;
3.实验结果表明,与其他方法相比,本发明的方法可达到94.01%的精度提高。
附图说明
图1是本发明的数据处理模块流程图。
图2是本发明的语音特征提取方法流程图。
图3是本发明模型训练模流程图。
图4是本发明部署阶段流程图。
具体实施方式
为便于本领域技术人员理解本发明的技术内容,下面结合附图对本发明内容进一步阐释。
本发明分为训练阶段及部署阶段,训练阶段在服务器上进行,部署阶段在训练阶段完成之后进行,将训练阶段的数据部署到语音设备上。
训练阶段主要包括数据处理和模型训练两部分。
步骤A数据预处理,主要是对输入的原始语音信号进行处理,检测采样率,并进行语音信号的端点检测(找出语音信号的始末)、语音分帧(近似认为在10-30ms内是语音信号是短时平稳的,将语音信号分割为一段一段进行分析)等处理。
如图1所示,步骤A的详细步骤包括:
步骤A1:从训练集中获取全部的训练数据,并检查训练集中语音识别的采样率。
步骤A2:若语音数据的采样率为16kHz,跳转至A3,否则使用工具包sox转换语音采样率为16kHz。
步骤A3:使用语音强制对齐工具p2fa检测语音信号的端点,以此标记语音句子中每个单词的开始和结束位置。
步骤A4:依照A3步标记的端点进行语音切割,将语音数据分割为单词片段以及无声片段。
步骤B语音特征提取,相较于MFCC(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数)等传统倒谱系数,本发明系统采用的SW-CQCC(Splited word Constant QCepstral Coefficients,分词常数Q变换倒谱系数)更加考虑到了人耳的听力特征,采用了中心频率按指数规律分布,滤波带宽不同、但中心频率与带宽比为常量Q的滤波器组。这样的选择避免了时频分辨率均匀的缺点,对于低频的波,它的带宽十分小,但有更高的频率分辨率来分解相近的音符;但是对于高频的波,它的带宽比较大,在高频有更高的时间分辨率来跟踪快速变化的泛音。
如图2所示,步骤B的详细步骤包括:
步骤B1:将语音数据进行预加重处理,增强语音的高频成分,以补偿高频分量在传输过程中的过大衰减。因为预加重对噪声并没有影响,因此语音信噪比能得到很好的提高。
yn=xn-a*xn-1
其中,xn表示当前时刻n的语音信号,α表示预加重系数,xn-1表示上一时刻n-1的语音信号,yn表示预加重处理之后的信号。
步骤B2:将语音数据按10ms分为短段,每段之间应有部分重叠。语音信号在宏观上是不平稳的,在微观上是平稳的,具有短时平稳性(10—30ms内可以认为语音信号近似不变)。然后进行加窗,即与一个窗函数相乘,加窗之后是为了进行傅里叶展开。
汉明窗,因为傅里叶展开需要对信号进行分帧,加窗是为了防止在分帧后,在帧起点和帧终点因为高度的不连续性出现吉布斯现象,所以会将较大的权重赋予靠近窗中心的信号,将接近零的权重赋值给靠近窗边缘的信号,以减轻分帧时的不连续性,汉明窗的权重函数为:
Figure BDA0002960940350000051
步骤B3:进行恒定Q变换(CQT),然后将幅度平方取对数获得功率谱,对功率谱进行均匀采样,最后进行离散余弦变换,得到CQCC系数,特征提取完毕。
训练阶段如图3所示,一共训练4个高斯混合模型(GMM),自然语音数据集与合成语音数据集各训练两个。
步骤C:自然语音数据集训练GMM,本发明采用GMM(Gaussian Mixture Model,混合高斯模型)来实现合成语音的检测,混合高斯模型是指多个高斯分布函数的线性组合,理论上GMM可以拟合出任意类型的分布,通过分别将自然语音和合成语音提取到的CQCC特征输入到两个初始化后的GMM模型值中进行训练,就可以拟合出两种语音的CQCC特征的分布,本发明在拟合之前进行了一定的实验,选取了256维作为GMM的维数,除此之外,本发明还对两种语音提取到的平均过零率AZCR(Average Zero Cross Rate,平均过零率)也进行了训练,同样是用GMM来进行拟合;详细步骤如下:
步骤C1:将自然语音数据集进行上述数据处理得到分割后的语音片段和无声片段,对有声片段进行CQCC特征提取,对无声片段计算其平均过零率。
步骤C2:将CQCC和平均过零率分别输入两个GMM模型进行训练,更新其参数,GMM模型为现有已知技术,其参数更新为现有技术,本发明中不做详细阐述。
步骤C3:继续输入自然语音,重复步骤A1、A2,进行100轮(可指定轮数)训练,最终得到参数训练好的GMM模型。
步骤C4:BDS(Biased Decision Strategy,偏执决策策略)策略的制定:对训练好的两个GMM模型进行加权求和,通过分别对两个GMM模型赋予不同的权重并测试,通过测试准确率来寻找到最合适的权重。具体的:两个GMM模型的权重之和为1,通过对两个GMM模型设置不同的权重并进行测试,选择准确率最高的作为最合适的权重,实验中是分别设置0.1GMM1+0.9GMM2,0.2GMM1+0.8GMM2...等10组实验来寻找最合适的权重分配。
采用合成语音数据集训练GMM,详细步骤同自然语音数据集训练方法C1至C3,将输入数据集换成合成语音数据集即可。
部署阶段主要目的就是将参数已经训练好的模型放入设备上的合成语音检测推断模块,以达到对输入语音的快速检测效果。
使用训练好的模型进行推断检测。推断检测主要分为三个部分,数据处理部分、推断部分和输出部分,已经训练好的模型可以直接放入推断部分进行使用,输出结果。在高精确度要求下,系统的输入语音将按照单词进行分片,同时产生无声的静默片段,系统对前者进行CQCC特征提取,对后者计算其平均过零率,经过推断部分最终得到检测结果。在有快速检测要求的环境下,输入语音数据的分割从检测到声音的时刻开始截取按照用户提前设定好的时长的片段(默认时长为经过实验后在时长和精确度之间的一个平衡点2.5s),分割好的片段按顺序直接送入系统进行检测,并实时反馈检测结果。
如图4所示部署阶段分为高精度要求检测效果部署和快速检测部署。
步骤D:高精度推断部署阶段。详细步骤如下:
步骤D1:将完整的待检测语音进行步骤A的数据处理,得到包含语音信息的单词片段和无声部分。
步骤D2:对语音片段进行CQCC特征提取,并计算无声部分的平均过零率。
步骤D3:将CQCC和平均过零率输入已经训练好的模型进行推断,得出检测结果,返回给用户。
步骤E:快速检测部署。详细步骤如下:
步骤E1:输入语音分割的时间(默认为2.5秒),将持续输入的语音数据按分割时间分为片段。
步骤E2:按照时间顺序将语音片段进行CQCC特征提取,并计算平均过零率。
步骤E3:将CQCC和平均过零率输入已经训练好的模型进行推断,得出检测结果,并实时返回给用户。本领域技术人员应知,这里的检测结果为该语音数据是否为合成语音。
在同一数据集上,相较于最经典的仅用CQCC作为前端特征的检测方法所达到的85.49%的准确率,本发明的方法的准确率达到了94.01%,通过提升训练数据量,测试准确率可以达到95.77%。
对于同一数据集,分别用MFCC(梅尔频率倒谱系数Mel-Frequency CepstralCoefficients),CFCCIF(瞬时耳蜗基底膜倒谱系数Cochlear Filter CepstralCoefficients Instantaneous Frequency)以及CQCC作为前端特征进行训练与测试,得到这三种方法(MFCC、CFCCIF、CQCC)测试准确率分别达到的76.45%、80.49%、85.49%,而本发明的方法的测试准确率则达到了94.01%。
本发明的方法尤其适用于以下场景:
1.具有语音识别(解锁)功能的高精度设备,该类设备受到合成语音威胁较大,在使用了本发明所提出的方法后,能有效检测出合成语音;尤其是语音解锁功能的设备,即使攻击者知道了解锁口令并采用合成语音技术合成受害者的语音,也无法通过检测。
2.具有快速识别要求的场合,如在实时通信设备中,本发明所提供的方法可以用来实时检测对方是否使用合成语音进行了通话。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (5)

1.一种基于语音分割的合成语音检测方法,其特征在于,分别将自然语音和合成语音提取到的CQCC特征输入到两个初始化后的GMM模型值中进行训练,采用训练完成的GMM模型对输入的语音进行检测,得到检测结果;
训练具体为训练4个GMM模型,自然语音数据集与合成语音数据集各训练两个GMM模型;
自然语音数据集对应的两个GMM模型的训练过程为:
将自然语音数据集进行预处理得到分割后的语音片段和无声片段,对有声片段进行CQCC特征提取,对无声片段计算其过零率;
将CQCC和过零率分别输入两个GMM模型进行训练,更新其参数;
达到预设的训练次数,最终得到参数训练好的GMM模型;
合成语音数据集对应的两个GMM模型的训练过程为:
将合成语音数据集进行预处理得到分割后的语音片段和无声片段,对有声片段进行CQCC特征提取,对无声片段计算其过零率;
将CQCC和过零率分别输入两个GMM模型进行训练,更新其参数;
达到预设的训练次数,最终得到参数训练好的GMM模型。
2.根据权利要求1所述的一种基于语音分割的合成语音检测方法,其特征在于,所述预处理具体为:
从自然语音数据集或合成语音数据集中获取全部的训练数据,并检查语音识别的采样率;
判断采样率是否为16kHz,若否,则使用工具包sox转换语音采样率为16kHz,当语音采样率为16kHz时,使用语音强制对齐工具p2fa检测语音信号的端点,以此标记语音句子中每个单词的开始和结束位置;
根据标记的端点进行语音切割,将语音数据分割为单词片段以及无声片段。
3.根据权利要求2所述的一种基于语音分割的合成语音检测方法,其特征在于,所述CQCC特征提取,包括以下分步骤:
将有声片段进行预加重处理;
将预加重处理后的有声片段按10ms分为短段,每段之间有部分重叠;然后进行加窗;
进行恒定Q变换,然后将幅度平方取对数获得功率谱,对功率谱进行均匀采样,最后进行离散余弦变换,得到CQCC系数。
4.根据权利要求3所述的一种基于语音分割的合成语音检测方法,其特征在于,还包括对训练好的两个GMM模型进行加权求和,通过分别对两个GMM模型赋予不同的权重并测试准确率,两个GMM模型权重之和为1,选择准确率最大值对应的权重作为两个GMM模型的权重。
5.根据权利要求4所述的一种基于语音分割的合成语音检测方法,其特征在于,检测过程具体为:
将输入的完整语音按照单词进行分片,同时产生无声的静默片段;
对语音片段进行CQCC特征提取,并计算无声片段的过零率;
将CQCC和过零率输入已经训练好的GMM模型进行推断,得出检测结果。
CN202110237780.1A 2021-03-04 2021-03-04 一种基于语音分割的合成语音检测方法 Active CN113012684B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110237780.1A CN113012684B (zh) 2021-03-04 2021-03-04 一种基于语音分割的合成语音检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110237780.1A CN113012684B (zh) 2021-03-04 2021-03-04 一种基于语音分割的合成语音检测方法

Publications (2)

Publication Number Publication Date
CN113012684A CN113012684A (zh) 2021-06-22
CN113012684B true CN113012684B (zh) 2022-05-31

Family

ID=76404544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110237780.1A Active CN113012684B (zh) 2021-03-04 2021-03-04 一种基于语音分割的合成语音检测方法

Country Status (1)

Country Link
CN (1) CN113012684B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113488074B (zh) * 2021-08-20 2023-06-23 四川大学 一种用于检测合成语音的二维时频特征生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504838B1 (en) * 1999-09-20 2003-01-07 Broadcom Corporation Voice and data exchange over a packet based network with fax relay spoofing
CN105679313A (zh) * 2016-04-15 2016-06-15 福建新恒通智能科技有限公司 一种音频识别报警系统及方法
CN107393554A (zh) * 2017-06-20 2017-11-24 武汉大学 一种声场景分类中融合类间标准差的特征提取方法
CN111653289A (zh) * 2020-05-29 2020-09-11 宁波大学 一种回放语音检测方法
CN112349267A (zh) * 2020-10-28 2021-02-09 天津大学 基于注意力机制特征的合成语音检测方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8583427B2 (en) * 1999-11-18 2013-11-12 Broadcom Corporation Voice and data exchange over a packet based network with voice detection
CN102436810A (zh) * 2011-10-26 2012-05-02 华南理工大学 一种基于信道模式噪声的录音回放攻击检测方法和系统
CN105933272A (zh) * 2015-12-30 2016-09-07 中国银联股份有限公司 能够防止录音攻击的声纹认证方法、服务器、终端及系统
US20180146370A1 (en) * 2016-11-22 2018-05-24 Ashok Krishnaswamy Method and apparatus for secured authentication using voice biometrics and watermarking
US11171977B2 (en) * 2018-02-19 2021-11-09 Nec Corporation Unsupervised spoofing detection from traffic data in mobile networks
CN110491391B (zh) * 2019-07-02 2021-09-17 厦门大学 一种基于深度神经网络的欺骗语音检测方法
CN110349586B (zh) * 2019-07-23 2022-05-13 北京邮电大学 电信诈骗检测方法及装置
CN112201255B (zh) * 2020-09-30 2022-10-21 浙江大学 语音信号频谱特征和深度学习的语音欺骗攻击检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504838B1 (en) * 1999-09-20 2003-01-07 Broadcom Corporation Voice and data exchange over a packet based network with fax relay spoofing
CN105679313A (zh) * 2016-04-15 2016-06-15 福建新恒通智能科技有限公司 一种音频识别报警系统及方法
CN107393554A (zh) * 2017-06-20 2017-11-24 武汉大学 一种声场景分类中融合类间标准差的特征提取方法
CN111653289A (zh) * 2020-05-29 2020-09-11 宁波大学 一种回放语音检测方法
CN112349267A (zh) * 2020-10-28 2021-02-09 天津大学 基于注意力机制特征的合成语音检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Classification of Audio Scenes with Novel Features in a Fused System Framework";L. Huang 等;《IEEE/ACM Transactions on Audio, Speech, and Language Processing》;20190517;全文 *
"Feature Selection Based on CQCCs for Automatic Speaker Verification Spoofing";Xianliang Wang 等;《INTERSPEECH 2017》;20170824;全文 *
"合成语音检测的关键技术研究与实现";吴思璠;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20220115;全文 *
"合成语音检测算法研究";于泓;《中国博士学位论文全文数据库(信息科技辑)》;20180915;全文 *
"基于深度神经网络的声纹欺骗检测研究";陈柱欣;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20200115;全文 *

Also Published As

Publication number Publication date
CN113012684A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
Kamble et al. Advances in anti-spoofing: from the perspective of ASVspoof challenges
Wu et al. A study on spoofing attack in state-of-the-art speaker verification: the telephone speech case
Reynolds An overview of automatic speaker recognition technology
US8160877B1 (en) Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
CN104835498A (zh) 基于多类型组合特征参数的声纹识别方法
CN113488058B (zh) 一种基于短语音的声纹识别方法
Wu et al. Vulnerability evaluation of speaker verification under voice conversion spoofing: the effect of text constraints
Algabri et al. Automatic speaker recognition for mobile forensic applications
CN109036470B (zh) 语音区分方法、装置、计算机设备及存储介质
US11611581B2 (en) Methods and devices for detecting a spoofing attack
CN113823293B (zh) 一种基于语音增强的说话人识别方法及系统
Zheng et al. When automatic voice disguise meets automatic speaker verification
Biagetti et al. Speaker identification in noisy conditions using short sequences of speech frames
CN113012684B (zh) 一种基于语音分割的合成语音检测方法
Nijhawan et al. A new design approach for speaker recognition using MFCC and VAD
Dai et al. An improved feature fusion for speaker recognition
Nagakrishnan et al. Generic speech based person authentication system with genuine and spoofed utterances: different feature sets and models
Impedovo et al. An Investigation on Voice Mimicry Attacks to a Speaker Recognition System.
Efanov et al. The BiLSTM-based synthesized speech recognition
Gonzalez-Rodriguez et al. An Audio Fingerprinting Approach to Replay Attack Detection on ASVSPOOF 2017 Challenge Data.
CN114512133A (zh) 发声对象识别方法、装置、服务器及存储介质
Mishra et al. Speaker identification, differentiation and verification using deep learning for human machine interface
Neelima et al. Spoofing det ection and count ermeasure is aut omat ic speaker verificat ion syst em using dynamic feat ures
Tahliramani et al. Performance analysis of speaker identification system with and without spoofing attack of voice conversion
Maurya et al. Speaker recognition for noisy speech in telephonic channel

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant