CN114420133A - 欺诈语音检测方法、装置、计算机设备以及可读存储介质 - Google Patents
欺诈语音检测方法、装置、计算机设备以及可读存储介质 Download PDFInfo
- Publication number
- CN114420133A CN114420133A CN202210139457.5A CN202210139457A CN114420133A CN 114420133 A CN114420133 A CN 114420133A CN 202210139457 A CN202210139457 A CN 202210139457A CN 114420133 A CN114420133 A CN 114420133A
- Authority
- CN
- China
- Prior art keywords
- voice
- model
- ith
- signal
- current signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000006243 chemical reaction Methods 0.000 claims abstract description 36
- 238000002372 labelling Methods 0.000 claims abstract description 15
- 238000012795 verification Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 208000020442 loss of weight Diseases 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明属于人工智能技术领域,提供一种欺诈语音检测方法、装置、计算机设备以及可读存储介质,该方法包括:获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集;将所述语音信号进行n维转换,获取欺诈信号,进行标注,获取带有第i标签的欺诈信号以及第i数据集,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集和第n+1训练集;通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
Description
技术领域
本发明设计人工智能技术领域,特别是涉及欺诈语音检测方法、装置、计算机设备以及可读存储介质。
背景技术
随着信息技术蓬勃发展,在越来越多的应用场景中,使用语音识别技术来进行业务支持服务,例如,在消费者业务以及金融服务场景中,语音服务得到较大的普及和发展。
随着语音服务业务模式的快速发展,基于新技术和新场景的欺诈手段也逐渐升级,语音欺诈方式越来越专业化、智能化,语音服务也面临越来越严峻的风控挑战。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种欺诈语音检测方法、装置、计算机设备以及可读存储介质,用于改善语音服务的风控问题。
为实现上述目的及其他相关目的,本发明提供一种欺诈语音检测方法,包括:
获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集;
将所述语音信号进行n维转换,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
可选的,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤包括:
通过所述第n+1模型对所述当前信号进行识别,判定所述当前信号是否为真实标签;
若否,则依次通过第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的第i标签。
可选的,依次通过第一模型至第n模型对所述当前信号进行识别的步骤还包括:
当所述第一模型至所述第n模型对所述当前信号进行识别,都判定所述当前信号为真实标签时,则所述当前信号为真实标签。
可选的,n维转换包括:语音重放、波形拼接、语音合成或语音转换。可选的,所述初始模型包括卷积神经网络,通过损失函数进行迭代训练,所述损失函数包括:第i类别的信号样本和权重值的损失、第i类别的标签与第i个信号样本的标签的权重值的损失、第i类别的信号样本和第k个权重值的损失。
可选的,获取语音信号的步骤还包括:
对所述语音信号进行时频转换,获取频域信号,并将所述频域信号进行分帧加窗处理,获取频域片段;
对所述频域片段提取梅尔倒谱频率系数和/或常数Q变换倒谱系数,获取声纹特征。
可选的,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤之后还包括:
当获取所述当前信号的标签为所述真实标签后,提供加密信息进行验证,验证过程包括随机验证码验证或者动态口令验证。
本发明提供一种欺诈语音检测装置,包括:
获取模块,用于获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集;
数据模块,用于将所述语音信号进行n维转换,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
训练模块,用于通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
识别模块,用于通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
本发明提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述欺诈语音检测方法的步骤。
本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述的欺诈语音检测方法的步骤。
如上所述,本发明的欺诈语音检测方法、装置、计算机设备以及可读存储介质,具有以下有益效果:
通过对语音信号进行标注,获取带有真实标签的语音信号,通过对语音信号进行多维转换,获取带有第i标签的欺诈信号,将带有真实标签的语音信号以及带有第i标签的欺诈信号进行合并,获取第一数据集至第n+1数据集;
通过初始模型分别对第一数据集至第n+1数据集分别进行迭代训练,获取第一模型至第n+1模型,第一模型至第n+1模型分别能够识别不同类型的当前信号,避免单一模型所产生的误判,提升算法模型的识别置信度。
附图说明
图1显示为本发明实施例的欺诈语音检测方法的应用环境示意图。
图2显示为本发明实施例的欺诈语音检测方法的流程示意图。
图3显示为本发明另一实施例的欺诈语音检测方法的流程示意图。
图4显示为本发明实施例的权值层的结构示意图。
图5显示为本发明另一实施例的欺诈语音检测装置的结构示意图。
图6显示为本发明实施例中电子设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
需要说明的是,本实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。本说明书所附图式所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。同时,本说明书中所引用的如“上”、“下”、“左”、“右”、“中间”及“一”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
随着人工智能(Artificial Intelligence,AI)技术的发展,语音识别技术也得到了长足的进步,基于神经网络模型为基础的算法能够对语音特征进行处理和分类,在语音识别中起到了一定的作用,能够在一些业务场景中提供语音服务,例如,金融服务或者消费者服务,然而随着技术的更迭,欺诈语音的方式和手段也越来越多样化,对语音服务提出了较大的风控考验。为此,可模拟多种欺诈手段生成数据集,再根据数据集和算法模型进行迭代训练,获取欺诈语音检测的识别模型,判定当前语音的标签,例如,真实标签或者欺诈标签,通过模拟欺诈手段获取数据集,并基于数据集进行模型训练,来达到提高识别模型检测欺诈语音置信度的目的。
本方案提供的欺诈语音检测方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。例如,可以通过终端102进行欺诈语音检测处理,将其处理结果与服务器104进行数据传输。又例如,可以通过服务器104进行欺诈语音检测处理,将其处理结果反馈至终端102中。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
如图2所示,本发明提供一种欺诈语音检测方法,包括:
S1:获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集,其中,所述语音数据集包括所述带有真实标签的语音信号;
S2:将所述语音信号进行n维转换,获取欺诈信号,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,其中,所述第i数据集包括所述第i标签的欺诈信号,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
S3:通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
S4:通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
在步骤S1中,示例性地说明,采集语音信号,将真实的语音信号进行标注,在该语音信号上标识真实标签,获取多个真实的语音信号将其作为语音数据集,语音数据集中的每个样本都包括真实标签,可采集一定数量的真实的语音信号将其作为语音数据集。
在步骤S2中,示例性地说明,模拟日常的语音欺诈手段,对语音数据集中的语音信号进行n维转换,获取欺诈信号,欺诈信号的类型与日常攻击语音服务的欺诈语音相同,通过n维转换,达到模拟欺诈语音的目的,按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号,并按照第i标签对欺诈信号划分相应的数据集,即获取第i数据集,其中第i数据集中的样本分别包括第i标签,为了更好的模拟欺诈语音以及确定去欺诈语音的类型,可将所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n,其中,在第i训练集中能够体现第i标签的数据特征,能够在第n+1训练集中更好的区别真实标签和非真实标签。
在步骤S3中,示例性地说明,通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型,其中,第一模型至第n模型中的第i模型用于识别第i标签或者真实标签,第n+1模型用于识别真实标签以及非真实标签,通过不同的模型来达到识别不同标签的目的。
在步骤S4中,示例性地说明,可通过所述第n+1模型对当前信号进行识别,能够对当前信号进行初步的分类,获取具有一定置信度的真实标签,降低当前信号的分类数据量以及难度,之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签,通过第一模型至第n模型分别对当前信号进行识别,避免单一模型引起的系统误判,而且能够通过第一模型至第n模型对当前信号的标签进行细分识别,提升识别精度,确定当前信号的标签类型。
为了避免单一模型的误判,可通过多个模型分别识别当前信号,提升算法模型的识别置信度,如图3所示,在一些实施过程中,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤包括:
S41:通过所述第n+1模型对所述当前信号进行识别,判定所述当前信号是否为真实标签;
S42:若否,则依次通过第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的第i标签。
S43:若是,则结束识别任务。
在步骤S41中,示例性地说明,通过第n+1模型对当前信号进行识别,由于n+1模型基于多种类型标签的欺诈信号和真实标签的语音信号训练得到,因此,会对当前信号进行真实标签的判断,当判定为真实标签时,具有较高的置信度。
在步骤S42中,示例性地说明,当在步骤S41中判定为非真实标签时,未确定非真实标签的类型,可依次通过第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的第i标签。
在步骤S43中,示例性地说明,当在步骤S41中判定为真实标签时,意味着该当前信号为真实标签的置信度很高,为减少不必要的后续处理以及运算量,可结束对当前信号的识别任务。
为了避免第n+1模型的漏判,在一些实施例中,依次通过第一模型至第n模型对所述当前信号进行识别的步骤还包括:
当所述第一模型至所述第n模型对所述当前信号进行识别,都判定所述当前信号为真实标签时,则所述当前信号为真实标签。进一步提高了模型的识别精确性,当第n+1模型发生漏判时,可从第n+1模型认定为非真实标签的数据集样本中进行再次检测,通过所述第一模型至所述第n模型来确定其中具有真实标签的当前语音。
为了模拟攻击语音服务的欺诈语音,n维转换至少包括以下之一:语音重放、波形拼接、语音合成、语音转换。在语音重放时,可采用录音设备对语音信号进行录音并重放,获取具有录音重放标签的欺诈语音。在波形拼接时,可将语音信号进行频域转换或者时域转换,将语音信号进行波形分割以及拼接,获取具有波形拼接标签的欺诈语音。在语音合成时,可将语音信号进行频域转换或者时域转换,将语音信号按照一定的映射关系进行转换,获取具有语音合成标签的欺诈语音。通过n维转换,获取了各种类型的欺诈语音,能够较为真实地模拟攻击语音服务的欺诈语音类型,并将不同标签类型的欺诈语音作为数据集进行模型训练,通过机器学习,在第一模型至第n+1模型中,能够分别对不同的音频特征进行识别,从而提高语音识别模型的识别精度。
在一些实施例中,所述初始模型包括卷积神经网络,通过损失函数进行迭代训练,所述损失函数包括:第i类别的信号样本和权重值的损失、第i类别的标签与第i个信号样本的标签的权重值的损失、第i类别的信号样本和第k个权重值的损失。例如,所述损失函数的数学表达为:
其中,Loss为损失函数,N为训练集的信号样本的数量,θi为第i类别的信号样本和权重值之间的角度,yi为第i个信号样本的标签,m为余弦间距,s为尺度变量,e为自然对数,k为信号样本的标签序号,为第i类别的标签与第i个信号样本的标签的权重值之间的角度,θk,i为第i类别的信号样本和第k个权重值之间的角度。采用该损失函数能够有效地针对音频特征进行反向传播的参数迭代,提高中间层神经元节点权值分配的合理性,能够提高识别模型的检测精度。
对模型进行训练的过程即是对模型的参数进行学习更新的过程,这个参数学习的过程往往会用到一些迭代方法,如梯度下降(Gradient descent)学习算法,为了避免过度拟合,在对初始模型的训练过程中还可以引入Dropout或者Early stop策略。例如,在Dropout策略中,一次循环中我们先随机选择神经层中的一些单元并将其临时隐藏,然后再进行该次循环中神经网络的训练和优化过程,在下一次循环中,我们又将隐藏另外一些神经元,如此直至训练结束。例如,在一般训练中,经常由于过拟合导致在训练集上的效果好,而在测试集上的效果非常差,可通过Early stop策略让训练提前停止,在测试集上达到最好的效果时候就停止训练,而不是等到在训练集上饱和在停止。
在一些实施例中,初始模型包括输入层、中间层和输出层,中间层包括卷积层以及权值层,为了提高训练的精确性,以及避免过拟合,可将一权值层21的输入层与另一权值层的输出层22连接,能够更加精确地为权值层的神经网络节点分配权重参数,权值层的设置方式请参考图4。通过设定第n+1模型来总体判定是否为真实标签,并从初步判定的真实语音中做进一步的筛选,确定欺诈语音,避免训练单一模型进行识别时出现的高召回率和低准确率的现象,通过多个模型分别进行识别,提高了欺诈语音的识别率,而且,缩小分类模型遍历处理语音样本的数据量,提高检测模型的识别效率。
为了获取便于模型训练的数据集,在一些实施例中,获取语音信号的步骤还包括:
对所述语音信号进行时频转换,获取频域信号,并将所述频域信号进行分帧加窗处理,获取频域片段;
对所述频域片段提取梅尔倒谱频率系数和/或常数Q变换倒谱系数,获取声纹特征。例如,通过提取梅尔倒谱频率系数作为声纹特征,梅尔倒谱频率系数(Mel-FrequencyCepstral Coefficients,MFCC)的获取过程包括:预加重、分帧、加窗、快速傅里叶变换、带通滤波器获取梅尔频谱以及获取倒谱特征,作为声纹特征。还可将获取的梅尔倒谱频率系数作为各个数据集样本的音频特征。通过语音设备采集到的语音信号一般为时域信号,通过时频转换,获取频域信号,通过对频域信号进行逐帧处理,提取声纹特征,无需再进行语音识别,将声纹特征作为用于训练和特征识别的音频特征,能够有效地检测识别出欺诈用户以及欺诈手段,有效防范欺诈风险,提高安全性,为了提高信号以及特征的识别率,还可获取梅尔倒谱频率系数MFCC和常数Q变换倒谱系数CQCC(Constant QCepstralCoefficients)作为声纹特征,其中,梅尔倒谱频率系数MFCC以及常数Q变换倒谱系数CQCC具有可变的时间和频率分辨率,能够提供更好的信号分辨能力,为了消除信道干扰的影响,对梅尔倒谱频率系数MFCC和常数Q变换倒谱系数CQCC进行倒谱均值方差归一化(CepstralMean and Varience Normalization,CMVN)),还可将真实标签的语音信号的样本与欺诈语音的样本的信号调整分布在一个共同的范围中。
在一些应用场景中,对于风控的要求较高,为了确保语音为真实标签,以及为了确保服务操作为客户操作,还可在语音服务之后进行更高等级的安全颜值,在一些实施例中,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤之后还包括:
当获取所述当前信号的标签为所述真实标签后,提供加密信息进行验证,验证过程包括随机验证码验证或者动态口令验证。例如,通过语音识别模型对当前信号进行识别,判定当前信号为真实标签后,再通过随机验证码验证或者动态口令验证的方式,来让操作者本人知晓该语音服务的过程,并将随机验证码和动态口令推送给操作者本人,引导操作者本人进行下一步操作。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
请参阅图5,本发明提供一种欺诈语音检测装置,包括:
获取模块,用于获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集,其中,所述语音数据集包括所述带有真实标签的语音信号;
数据模块,用于将所述语音信号进行n维转换,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,其中,所述第i数据集包括所述第i标签的欺诈信号,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
训练模块,用于通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
识别模块,用于通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。可通过所述第n+1模型对当前信号进行识别,能够对当前信号进行初步的分类,获取具有一定置信度的真实标签,降低当前信号的分类数据量以及难度,之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签,通过第一模型至第n模型分别对当前信号进行识别,避免单一模型引起的系统误判,而且能够通过第一模型至第n模型对当前信号的标签进行细分识别,提升识别精度,确定当前信号的标签类型。
可以在数据模块中模拟日常的语音欺诈手段,对语音数据集中的语音信号进行n维转换,获取欺诈信号,欺诈信号的类型与日常攻击语音服务的欺诈语音相同,通过n维转换,达到模拟欺诈语音的目的,按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号,并按照第i标签对欺诈信号划分相应的数据集,即获取第i数据集,其中第i数据集中的样本分别包括第i标签,为了更好的模拟欺诈语音以及确定去欺诈语音的类型,可将所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n,其中,在第i训练集中能够体现第i标签的数据特征,能够在第n+1训练集中更好的区别真实标签和非真实标签。
可以在训练模块中,对初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型,其中,第一模型至第n模型中的第i模型用于识别第i标签或者真实标签,第n+1模型用于识别真实标签以及非真实标签,通过不同的模型来达到识别不同标签的目的。
在一些实施例中,在所述识别模块中,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤包括:
通过所述第n+1模型对所述当前信号进行识别,判定所述当前信号是否为真实标签;
若否,则依次通过第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的第i标签。
在一些实施例中,依次通过第一模型至第n模型对所述当前信号进行识别的步骤还包括:
当所述第一模型至所述第n模型对所述当前信号进行识别,都判定所述当前信号为真实标签时,则所述当前信号为真实标签。
在一些实施例中,n维转换包括:语音重放、波形拼接、语音合成或语音转换。
可选的,所述初始模型包括卷积神经网络,通过损失函数进行迭代训练,所述损失函数包括:第i类别的信号样本和权重值的损失、第i类别的标签与第i个信号样本的标签的权重值的损失、第i类别的信号样本和第k个权重值的损失。例如,所述损失函数的数学表达为:
其中,Loss为损失函数,N为训练集的信号样本的数量,θi为第i类别的信号样本和权重值之间的角度,yi为第i个信号样本的标签,m为余弦间距,s为尺度变量,e为自然对数,k为信号样本的标签序号,为第i类别的标签与第i个信号样本的标签的权重值之间的角度,θk,i为第i类别的信号样本和第k个权重值之间的角度。
在一些实施例中,获取语音信号的步骤还包括:
对所述语音信号进行时频转换,获取频域信号,并将所述频域信号进行分帧加窗处理,获取频域片段;
对所述频域片段提取梅尔倒谱频率系数和/或常数Q变换倒谱系数,获取声纹特征。
在一些实施例中,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤之后还包括:
当获取所述当前信号的标签为所述真实标签后,提供加密信息进行验证,验证过程包括随机验证码验证或者动态口令验证。
根据本公开的实施例还提供了一种能够实现上述方法的电子设备或者计算机设备。所属技术领域的技术人员能够理解,本发明的执行主体包括但不限于系统、方法或程序产品。因此,本发明的执行主体可以具体实现为以下执行或者实施形式,即:硬件实施方式、软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”、“系统”、“设备”或者“装置”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。如图6所示,电子设备600以通用计算机设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630。其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“欺诈语音检测方法”部分中描述的根据本发明各种示例性实施方式的步骤。存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)621和/或高速缓存存储单元622,还可以进一步包括只读存储单元(ROM)623。存储单元620还可以包括具有一组(至少一个)程序模块625的程序/实用工具624,这样的程序模块625包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。电子设备600也可以与一个或多个外部设备800(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行,比如与显示单元640通信。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID(Redundant Arrays of Independent Disks/磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算机设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
根据本公开实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,当所述计算机可读指令被计算机执行时,使计算机执行本说明书上述的欺诈语音检测方法。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
在本发明中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种欺诈语音检测方法,其特征在于,包括:
获取语音信号,并对所述语音信号进行标注,得到带有真实标签的语音信号以及语音数据集,其中,所述语音数据集包括所述带有真实标签的语音信号;
将所述语音信号进行n维转换,获取欺诈信号,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,其中,所述第i数据集包括所述第i标签的欺诈信号,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
2.根据权利要求1所述的欺诈语音检测方法,其特征在于,所述通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤包括:
通过所述第n+1模型对所述当前信号进行识别,判定所述当前信号是否为真实标签;
若否,则依次通过第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的第i标签。
3.根据权利要求2所述的欺诈语音检测方法,其特征在于,依次通过第一模型至第n模型对所述当前信号进行识别的步骤还包括:
当所述第一模型至所述第n模型对所述当前信号进行识别,都判定所述当前信号为真实标签时,则所述当前信号为真实标签。
4.根据权利要求1所述的欺诈语音检测方法,其特征在于,n维转换包括:语音重放、波形拼接、语音合成或语音转换。
5.根据权利要求1所述的欺诈语音检测方法,其特征在于,所述初始模型包括卷积神经网络,通过损失函数进行迭代训练,所述损失函数包括:第i类别的信号样本和权重值的损失、第i类别的标签与第i个信号样本的标签的权重值的损失、第i类别的信号样本和第k个权重值的损失。
6.根据权利要求1所述的欺诈语音检测方法,其特征在于,获取语音信号的步骤还包括:
对所述语音信号进行时频转换,获取频域信号,并将所述频域信号进行分帧加窗处理,获取频域片段;
对所述频域片段提取梅尔倒谱频率系数和/或常数Q变换倒谱系数,获取声纹特征。
7.根据权利要求1所述的欺诈语音检测方法,其特征在于,通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签的步骤之后还包括:
当获取所述当前信号的标签为所述真实标签后,提供加密信息进行验证,验证过程包括随机验证码验证或者动态口令验证。
8.一种欺诈语音检测装置,其特征在于,包括:
获取模块,用于获取语音信号,并将所述语音信号进行标注,获取带有真实标签的语音信号以及语音数据集;
数据模块,用于将所述语音信号进行n维转换,并按照n维转换的类型分别对所述欺诈信号进行标注,获取带有第i标签的欺诈信号以及第i数据集,通过所述语音数据集以及第i数据集进行合并,分别获取第i训练集,并通过所述语音数据集以及各个第i数据集进行合并,获取第n+1训练集,1≤i≤n;
训练模块,用于通过初始模型分别对第一训练集至第n+1训练集进行迭代训练,获取相应的用于语音检测的第一模型至第n+1模型;
识别模块,用于通过所述第n+1模型对当前信号进行识别之后,依次通过所述第一模型至第n模型对所述当前信号进行识别,获取所述当前信号的所述真实标签或者所述第i标签。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述欺诈语音检测方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的欺诈语音检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210139457.5A CN114420133A (zh) | 2022-02-16 | 2022-02-16 | 欺诈语音检测方法、装置、计算机设备以及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210139457.5A CN114420133A (zh) | 2022-02-16 | 2022-02-16 | 欺诈语音检测方法、装置、计算机设备以及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114420133A true CN114420133A (zh) | 2022-04-29 |
Family
ID=81260886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210139457.5A Pending CN114420133A (zh) | 2022-02-16 | 2022-02-16 | 欺诈语音检测方法、装置、计算机设备以及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114420133A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114971658A (zh) * | 2022-07-29 | 2022-08-30 | 四川安洵信息技术有限公司 | 一种反诈宣传方法、系统、电子设备以及存储介质 |
-
2022
- 2022-02-16 CN CN202210139457.5A patent/CN114420133A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114971658A (zh) * | 2022-07-29 | 2022-08-30 | 四川安洵信息技术有限公司 | 一种反诈宣传方法、系统、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111276131B (zh) | 一种基于深度神经网络的多类声学特征整合方法和系统 | |
CN107481717B (zh) | 一种声学模型训练方法及系统 | |
CN107481720B (zh) | 一种显式声纹识别方法及装置 | |
CN109308912B (zh) | 音乐风格识别方法、装置、计算机设备及存储介质 | |
CN112259106A (zh) | 声纹识别方法、装置、存储介质及计算机设备 | |
CN111724770B (zh) | 一种基于深度卷积生成对抗网络的音频关键词识别方法 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
CN111858943A (zh) | 音乐情感识别方法及装置、存储介质和电子设备 | |
KR20200104019A (ko) | 머신러닝 기반의 음성데이터 분석 방법, 장치 및 프로그램 | |
CN109947971B (zh) | 图像检索方法、装置、电子设备及存储介质 | |
CN111462761A (zh) | 声纹数据生成方法、装置、计算机装置及存储介质 | |
CN111402922B (zh) | 基于小样本的音频信号分类方法、装置、设备及存储介质 | |
Shen et al. | Knowledge distillation-based representation learning for short-utterance spoken language identification | |
CN111666996A (zh) | 一种基于attention机制的高精度设备源识别方法 | |
CN114420133A (zh) | 欺诈语音检测方法、装置、计算机设备以及可读存储介质 | |
WO2021135454A1 (zh) | 一种伪冒语音的识别方法、设备及计算机可读存储介质 | |
Gaurav et al. | An efficient speaker identification framework based on Mask R-CNN classifier parameter optimized using hosted cuckoo optimization (HCO) | |
WO2021257316A1 (en) | Systems and methods for phoneme and viseme recognition | |
KR20220011572A (ko) | 딥러닝을 이용한 지진 데이터 생성 방법 및 그 장치 | |
CN113539243A (zh) | 语音分类模型的训练方法、语音分类方法及相关装置 | |
Fedele et al. | Explaining siamese networks in few-shot learning for audio data | |
CN115273904A (zh) | 一种基于多特征融合的愤怒情绪识别方法及装置 | |
Khan et al. | Speech recognition: increasing efficiency of support vector machines | |
CN113450764B (zh) | 文本语音识别方法、装置、设备及存储介质 | |
CN113160823B (zh) | 基于脉冲神经网络的语音唤醒方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |