CN113257255A - 一种伪造语音的识别方法、装置、电子设备及存储介质 - Google Patents
一种伪造语音的识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113257255A CN113257255A CN202110759437.3A CN202110759437A CN113257255A CN 113257255 A CN113257255 A CN 113257255A CN 202110759437 A CN202110759437 A CN 202110759437A CN 113257255 A CN113257255 A CN 113257255A
- Authority
- CN
- China
- Prior art keywords
- voice
- identified
- voiceprint
- identification
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000005070 sampling Methods 0.000 claims description 111
- 230000008859 change Effects 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 11
- 238000005242 forging Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000012216 screening Methods 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012550 audit Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000003892 spreading Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请提供了一种伪造语音的识别方法、装置、电子设备及存储介质,获取多个待鉴别语音,基于每个待鉴别语音的第一鉴别声纹特征第一伪造语音特征,确定第一声纹相似度和第一伪造分数;利用第一声纹相似度和第一伪造分数确定第二鉴别语音集合;基于每个待鉴别语音的第二鉴别声纹特征,确定第二声纹相似度,并基于第一声纹相似度和第二声纹相似度,确定第三鉴别语音集合;基于每个待鉴别语音的第二伪造语音特征,确定第二伪造分数,并基于第一伪造分数和第二伪造分数,确定第四鉴别语音集合;根据第三待鉴别语音集合与第四待鉴别语音集合确定目标人员的伪造语音。这样,本申请可以更好的提高目标人员伪造语音的检测结果准确率。
Description
技术领域
本申请涉及语音识别技术领域,尤其是涉及一种伪造语音的识别方法装置、电子设备及存储介质。
背景技术
在当今互联网信息爆发的年代,人们可以通过互联网上的社交平台进行信息分享和信息交流等,而一些社会影响力大的人员发布的信息更容易被人们获取与传播。并且,随着语音生成和编辑软件功能的不断增强,非专业人员也可以很容易对语音内容进行修改,伪造一些社会影响力大的指定/重要目标人的音频或视频发布在社交平台中,以供人们获取和分享。
而从传播危害角度,这些社会影响力大的指定/重要目标人的伪造语音也是互联网音视频鉴伪审核或者监管治理的重要任务。因此,如何从海量音频或视频信息中识别出指定/重要目标人的伪造音频或伪造视频,是亟待解决的技术问题。
发明内容
有鉴于此,本申请的目的在于提供一种伪造语音的识别方法、装置电子设备及存储介质,根据待鉴别语音的声纹特征和伪造语音特征,筛选出目标人员的伪造语音,从而可以更好的提高检测结果准确率。
本申请实施例提供了一种伪造语音的识别方法,所述识别方法包括:
获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;
针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;
利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;
基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;
针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;
基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;
基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;
将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
可选的,所述获取多个待鉴别语音,包括:
获取多个原始语音;
针对于每个原始语音,对该原始语音进行采样频率转换处理,将原始采样频率转换为第一采样频率的原始语音确定为待鉴别语音。
可选的,所述针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度,包括:
针对于每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征,输入至预先训练好的第一声纹识别模型中,计算该待鉴别语音与每个候选声纹特征的第一声纹相似度。
可选的,所述利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征,包括:
针对于每个待鉴别语音,从确定出的该待鉴别语音与每个候选声纹特征之间的第一声纹相似度中,确定出最大第一相似度;
当最大第一相似度大于预设第一分数阈值时,将该待鉴别语音确定为用于构造第一鉴别语音集合的待鉴别语音;
基于用于构造第一鉴别语音集合的待鉴别语音,构建第一鉴别语音集合;
将最大第一相似度对应的候选声纹特征,确定为该待鉴别语音的目标声纹特征。
可选的,所述基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合,包括:
针对于所述第一鉴别语音集合中每个待鉴别语音,将该待鉴别语音的第一伪造语音特征,输入至预先训练好的第一伪造语音识别模型中,计算该待鉴别语音的第一伪造分数;
针对于所述第一鉴别语音集合中每个待鉴别语音,当所述第一伪造分数大于预设第二分数阈值时,将该待鉴别语音确定为用于构造第二鉴别语音集合的待鉴别语音;
基于用于构造第二鉴别语音集合的待鉴别语音,构建第二鉴别语音集合。
可选的,所述针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征,包括:
对所述第二鉴别语音集合中的每个待鉴别语音进行降采样处理,得到降采样后的第二鉴别语音集合;其中,降采样后的第二鉴别语音集合中每个待鉴别语音的第一采样频率转换为第二采样频率;
针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
可选的,所述基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合,包括:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二声纹特征输入至预先训练好的第二声纹识别模型中,计算该待鉴别语音与该待鉴别语音对应的目标声纹特征的第二声纹相似度;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一声纹相似度和第二声纹相似度,确定该待鉴别语音的声纹变化分数;
当所述声纹变化分数小于第三分数阈值时,将该待鉴别语音确定为用于构造第三鉴别语音集合的待鉴别语音;
基于用于构造第三鉴别语音集合的待鉴别语音,构建第三鉴别语音集合。
可选的,所述基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合,包括:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,计算该待鉴别语音的第二伪造分数;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数变化分数;
当所述伪造分数变化分数大于第四分数阈值时,将该待鉴别语音确定为用于构造第四鉴别语音集合的待鉴别语音;
基于用于构造第四鉴别语音集合的待鉴别语音,构建第四鉴别语音集合。
可选的,通过以下方法训练第一声纹识别模型:
获取多个候选语音、多个样本语音、以及每个候选语音和每个样本语音的相似度标签,其中,每个候选语音和每个样本语音的采样频率为第一采样频率;
分别从每个候选语音中提取出候选声纹特征,以及从每个样本语音中提取出样本声纹特征,得到多个候选声纹特征和多个样本声纹特征;
将所述多个候选声纹特征和所述多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
本申请实施例还提供了一种伪造语音的识别装置,所述识别装置包括:
获取模块,用于获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;
第一相似度确定模块,用于针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;
第一集合确定模块,用于利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;
第二集合确定模块,用于基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;
特征提取模块,用于针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;
第三集合确定模块,用于基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;
第四集合确定模块,用于基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;
伪造语音确定模块,用于将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
可选的,所述获取模块在用于获取多个待鉴别语音时,所述获取模块用于:
获取多个原始语音;
针对于每个原始语音,对该原始语音进行采样频率转换处理,将原始采样频率转换为第一采样频率的原始语音确定为待鉴别语音。
可选的,所述第一相似度确定模块在用于针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度时,所述第一相似度确定模块用于:
针对于每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征,输入至预先训练好的第一声纹识别模型中,计算该待鉴别语音与每个候选声纹特征的第一声纹相似度。
可选的,所述第一集合确定模块在用于利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征时,所述第一集合确定模块用于:
针对于每个待鉴别语音,从确定出的该待鉴别语音与每个候选声纹特征之间的第一声纹相似度中,确定出最大第一相似度;
当最大第一相似度大于预设第一分数阈值时,将该待鉴别语音确定为用于构造第一鉴别语音集合的待鉴别语音;
基于用于构造第一鉴别语音集合的待鉴别语音,构建第一鉴别语音集合;
将最大第一相似度对应的候选声纹特征,确定为该待鉴别语音的目标声纹特征。
可选的,所述第二集合确定模块在用于基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合时,所述第二集合确定模块用于:
针对于所述第一鉴别语音集合中每个待鉴别语音,将该待鉴别语音的第一伪造语音特征,输入至预先训练好的第一伪造语音识别模型中,计算该待鉴别语音的第一伪造分数;
针对于所述第一鉴别语音集合中每个待鉴别语音,当所述第一伪造分数大于预设第二分数阈值时,将该待鉴别语音确定为用于构造第二鉴别语音集合的待鉴别语音;
基于用于构造第二鉴别语音集合的待鉴别语音,构建第二鉴别语音集合。
可选的,所述特征提取模块在用于针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征时,所述特征提取模块用于:
对所述第二鉴别语音集合中的每个待鉴别语音进行降采样处理,得到降采样后的第二鉴别语音集合;其中,降采样后的第二鉴别语音集合中每个待鉴别语音的第一采样频率转换为第二采样频率;
针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
可选的,所述第三集合确定模块在用于基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合时,所述第三集合确定模块用于:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二声纹特征输入至预先训练好的第二声纹识别模型中,计算该待鉴别语音与该待鉴别语音对应的目标声纹特征的第二声纹相似度;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一声纹相似度和第二声纹相似度,确定该待鉴别语音的声纹变化分数;
当所述声纹变化分数小于第三分数阈值时,将该待鉴别语音确定为用于构造第三鉴别语音集合的待鉴别语音;
基于用于构造第三鉴别语音集合的待鉴别语音,构建第三鉴别语音集合。
可选的,所述第四集合确定模块在用于基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合时,所述第四集合确定模块用于:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,计算该待鉴别语音的第二伪造分数;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数变化分数;
当所述伪造分数变化分数大于第四分数阈值时,将该待鉴别语音确定为用于构造第四鉴别语音集合的待鉴别语音;
基于用于构造第四鉴别语音集合的待鉴别语音,构建第四鉴别语音集合。
可选的,所述识别装置还包括模型构建模块,所述模型构建模块用于:
获取多个候选语音、多个样本语音、以及每个候选语音和每个样本语音的相似度标签,其中,每个候选语音和每个样本语音的采样频率为第一采样频率;
分别从每个候选语音中提取出候选声纹特征,以及从每个样本语音中提取出样本声纹特征,得到多个候选声纹特征和多个样本声纹特征;
将所述多个候选声纹特征和所述多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如上述的伪造语音的识别方法的步骤。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述的伪造语音的识别方法的步骤。
本申请实施例提供的一种伪造语音的识别方法、装置、电子设备及存储介质,获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
这样,本申请在进行伪造语音识别的过程中,通过多次筛选和融合处理,可以更好的解决语音鉴伪审核中,目标人员伪造语音检测虚警率过高的问题,通过初筛选保证疑似目标说话人语音的高召回率,通过复筛选过滤得到疑似目标人员的伪造语音,最后通过融合判断,实现声纹同一性和语音真伪性的有效集成检测,并且在识别过程中,还充分利用了声纹在不同采样频率下的分数的稳定性和伪造语音在不同采样频率下的分数动态变化性,从而可以有效的滤除目标人员的真实人员,得到目标人员的伪造语音,进而可以提高伪造语音的识别准确率和识别效率。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例所提供的一种伪造语音的识别方法的流程图;
图2为本申请实施例所提供的一种伪造语音的识别装置的结构示意图之一;
图3为本申请实施例所提供的一种伪造语音的识别装置的结构示意图之二;
图4为本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的每个其他实施例,都属于本申请保护的范围。
经研究发现,在当今互联网信息爆发的年代,人们可以通过互联网上的社交平台进行信息分享和信息交流等,而一些社会影响力大的人员发布的信息更容易被人们获取与传播。并且,随着语音编辑软件功能的不断增强,非专业人员也可以很容易对语音内容进行修改,伪造一些社会影响力大的指定/重要目标人的音频或视频发布在社交平台中,以供人们获取和分享。
而从传播危害角度,这些社会影响力大的指定/重要目标人的伪造语音也是互联网音视频鉴伪审核或者监管治理的重要任务。因此,如何从海量音频或视频信息中识别出指定/重要目标人的伪造音频或伪造视频,是亟待解决的技术问题。
基于此,本申请实施例提供了一种伪造语音的识别方法,可以在语音审核中,更好的提高目标人员伪造语音的检测结果准确率。
请参阅图1,图1为本申请实施例所提供的一种伪造语音的识别方法的流程图。如图1中所示,本申请实施例提供的伪造语音的识别方法,包括:
S101、获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征。
该步骤中,获取多个需要进行鉴别是否为伪造语音的待鉴别语音,根据获取到的多个待鉴别语音,针对每个待鉴别语音,提取该待鉴别语音的声纹特征和伪造语音特征,作为该待鉴别语音的第一鉴别声纹特征和第一伪造语音特征。
这里,鉴别是否为伪造语音,也可以为鉴别是否为指定/重点关注人员的伪造语音,其中,指定/重点关注人员的确定可以由用户根据实际使用情况进行适用性选择,在此,不做限定。
可选的,所述获取多个待鉴别语音,包括:获取多个原始语音;针对于每个原始语音,对该原始语音进行采样频率转换处理,将原始采样频率转换为第一采样频率的原始语音确定为待鉴别语音。
该步骤中,首先获取多个原始语音,针对于获取的每个原始语音进语音治理处理,其中语音治理处理包括采用频率转换处理,使得每个原始语音的采样频率由原始采样频率转变为第一采样频率,将语音处理后的第一采样频率的原始语音作为待鉴别语音。
这里,获取的多个原始语音,可以为网络语音、通话语音以及视频中的语音等,可以从各种可以获取语音的条件下,获取原始语音,在此不做限定。
这里,语音治理包括音频转码、音频检测、数据清洗、噪声抑制、语音增强、人声检测、人声与音乐声分离以及多说话人语音分离处理手段中的至少一种。语音治理可以把采集到的原始语音数据,通过分帧加窗,采用快速傅里叶变换(FFT)、离散余弦变换(DCT)等技术,计算得到音频频谱信息。需要说明的是,对原始语音进行语音治理处理,是为了提高后期检测和识别结果的准确性,这是因为获取的原始语音的来源、清晰程度等不同,特别是网络语音通常都来自异质环境,其音频来源和语音构成复杂多样,而经过语音治理处理可以有效的过滤原始语音中的噪声,得到有效的语音数据。
需要说明的是,这里,之所以将原始语音的原始采样频率转化为第一采样频率是因为声纹特征在不同采样频率下是相对稳定的,而伪造语音特征在不同采样频率下是存在动态变化的。这里,确定出的多个待鉴别语音的采样频率都统一为第一采样频率。其中,每个原始语音的原始采样频率可以是各个数值的频率,而每个待鉴别语音的第一采样频率的数值是一样的,第一采样频率的数值可以根据使用情况进行适用性选择。
示例的,第一采样频率可以选择16000采样频率。
S102、针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度。
该步骤中,获取到多个需要鉴别是否为伪造语音的待鉴别语音后,对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征对应的候选语音之间的第一声纹相似度,确定出多个第一声纹相似度。
这里,每个待鉴别语音的采样频率都为第一采样频率。候选声纹特征是从某些候选人员的候选语音中确定出来的。其中候选人员的候选语音,实际即为候选人员的语音。
需要说明的是,候选人员可以为某些指定/重点关注人员,指定/重点关注人员的确定可以由用户根据实际使用情况进行适用性选择。
示例的,当在互联网上进行伪造语音审查时,指定/重点关注人员可以为拥有众多粉丝的网络大V,或者也可以为某些身份敏感的人员。
示例的,假设有5个待鉴别语音,5个候选声纹,则可以确定出25个第一声纹相似度。
可选的,所述针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度,包括:针对于每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征,输入至预先训练好的第一声纹识别模型中,计算该待鉴别语音与每个候选声纹特征的第一声纹相似度。
该步骤中,对于需要进行识别是否为伪造语音的每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征输入至预先训练好的第一声纹识别模型中,其中预先训练好的第一声纹识别模型中存储有多个采样频率为第一采样频率的候选语音的候选声纹,通过第一声纹识别模型确定每个第一鉴别声纹特征的特征向量,以及每个候选声纹特征的特征向量,基于每个第一鉴别声纹特征的特征向量和每个候选声纹特征的特征向量,计算每个待鉴别语音与每个候选声纹特征对应的候选语音的第一声纹相似度。
需要说明的是,输入至第一声纹识别模型中的待鉴别语音的第一鉴别声纹对应的采样频率为第一采样频率。
可选的,通过以下方法训练第一声纹识别模型:获取多个候选语音、多个样本语音、以及每个候选语音和每个样本语音的相似度标签,其中,每个候选语音和每个样本语音的采样频率为第一采样频率;分别从每个候选语音中提取出候选声纹特征,以及从每个样本语音中提取出样本声纹特征,得到多个候选声纹特征和多个样本声纹特征;将所述多个候选声纹特征和所述多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
该步骤中,首先,获取多个候选人员的多个候选语音、与多个候选语音对应的多个样本语音、以及每个候选语音和每个样本语音对应的声纹相似度标签。需要说明的是,构建第一声纹识别模型所使用的每个候选语音和每个样本语音的采样频率均为第一采样频率。然后,针对于每个候选语音,提取该候选语音的候选声纹特征,得到多个候选声纹特征,针对每个样本语音,提取该样本语音的样本声纹特征,得到多个样本声纹特征。最后,将多个候选声纹特征和多个样本声纹特征作为输入,将多个相似度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
这里,神经网络可以选择循环神经网络也可以选择卷积神经网络,在此不作限定。
示例的,第一采样频率可以选择16000采样频率。
此外,本申请中,还训练了第二声纹识别模型、第一伪造语音识别模型、以及第二伪造语音识别模型。
示例的,通过以下步骤构建第二声纹识别模型:
首先,获取与训练第一声纹识别模型相同的多个候选人员的多个候选语音、与多个候选语音对应的多个样本语音、以及每个候选语音和每个样本语音对应的声纹相似度标签,不同的是,获取的多个候选语音、以及与多个候选语音对应的多个样本语音的采用频率为第二采样频率。然后,针对于每个候选语音,提取该候选语音的候选声纹特征,得到多个候选声纹特征,针对每个样本语音,提取该样本语音的样本声纹特征,得到多个样本声纹特征。最后,将多个候选声纹特征和多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第二声纹识别模型。
示例的,第二采样频率可以选择8000采样频率。
通过以下步骤构建第一伪造语音识别模型:
首先获取多个训练样本语音,以及每个训练样本语音对应的样本标签,然后,针对每个训练样本语音,提取该训练样本语音的语音特征,得到多个训练样本语音特征,最后,将得到多个训练样本语音特征作为输入,将多个伪造语音标签作为输出,训练预先构建好的神经网络,得到第一伪造语音识别模型。
需要说明的是,构建第一伪造语音识别模型,使用的训练样本语音的采样频率为第一采样频率;样本标签包括是伪造语音和不是伪造语音两种标签。
此外,当第一伪造语音识别模型是由语音合成识别子模型、语音重放识别子模型以及声音转换识别子模型组成的时候。可以分别训练三个子模型,使用训练好的三个子模型,构成第一伪造语音识别模型。
这样,构建第一伪造语音识别模型的步骤为:首先,获取多个采样频率为第一采样频率的训练样本语音,以及每个样本语音对应的样本标签,将获取的多个训练样本语音按语音合成、语音重放以及声音转换,分成三组样本语音;然后针对于每组样本语音,使用该组样语音以及样本标签,训练预先构建好神经网络,得到语音合成识别子模型、语音重放识别子模型以及声音转换识别子模型。最后,使用训练好的语音合成识别子模型、语音重放识别子模型以及声音转换识别子模型,组成第一伪造语音识别模型。
需要说明的是,上述仅举例三种子模型,但是第一伪造语音识别模型也可以包括更多数量的子模型,在此不做限定。
需要说明的是,本申请中还构建了第二伪造语音识别模型,其中,第二伪造语音识别模型与第一伪造语音识别模型的训练过程相同,区别在于,使用的训练样本语音的采样频率为第二采样频率。
示例的,第二采样频率可以选择8000采样频率。
S103、利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征。
需要说明的是,预设第一分数阈值可以根据召回率应用指标要求进行设定的,这是因为,在互联网音视频鉴伪审核或监管治理过程中,“伪造同人”语音的声纹分数通常介于同人分数和非同人分数之间,而业务上关注的正是这一分数分布区间,即不是真正的同人,但听感上又具有较高的相似性。因此,根据召回率应用指标要求去设置第一分数阈值。
可选的,所述利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征,包括:针对于每个待鉴别语音,从确定出的该待鉴别语音与每个候选声纹特征之间的第一声纹相似度中,确定出最大第一相似度;当最大第一相似度大于预设第一分数阈值时,将该待鉴别语音确定为用于构造第一鉴别语音集合的待鉴别语音;基于用于构造第一鉴别语音集合的待鉴别语音,构建第一鉴别语音集合;将最大第一相似度对应的候选声纹特征,确定为该待鉴别语音的目标声纹特征。
该步骤中,针对于每个待鉴别语音,确定出该待鉴别语音和每个候选声纹特征的第一声纹相似度后,每个待鉴别语音可以确定出多个第一声纹相似度;然后针对于每个待鉴别语音,确定该待鉴别语音的最大第一声纹相似度;再然后,针对于每个待鉴别语音,使用该待鉴别语音的最大第一声纹相似度与预设的第一分数阈值进行比对,当最大第一声纹相似度大于预设的第一分数阈值时,将该待鉴别语音确定用于构建第一鉴别语音集合的语音,可确定出多个待鉴别语音,使用确定出的多个待鉴别语音构建第一鉴别语音集合;并且针对于每个待鉴别语音,在确定出该待鉴别语音的最大第一声纹相似度后,将最大第一声纹相似度对应的候选声纹特征作为该待鉴别语音对应的目标声纹特征,这样,可以确定出每个待鉴别语音的目标声纹特征。
需要说明的是,确定每个待鉴别语音的目标声纹特征后,根据目标声纹特征对应的语音和对应的目标人员,可以确定每个待鉴别语音对应的目标语音和目标人员;第一鉴别语音集合中的待鉴别语音可以使用全部待鉴别语音,也可以使用部分待鉴别语音;第一鉴别语音集合中的每个待鉴别语音的采样频率均为第一采样频率。
S104、基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合。
该步骤中,针对于第一鉴别语音集合中每个待鉴别语音,根据该待鉴别语音中第一伪造语音特征,确定每个待鉴别语音的第一伪造分数,其中,每个待鉴别语音都有一个第一伪造分数;然后,针对于每个待鉴别语音,使用该待鉴别语音的第一伪造分数与预设的第二分数阈值进行比对,当第一伪造分数大于预设的第一分数阈值时,将该待鉴别语音确定用于构建第二鉴别语音集合的语音,可确定出多个待鉴别语音,使用确定出的多个待鉴别语音构建第二鉴别语音集合。
需要说明的是,第二鉴别语音集合中的待鉴别语音可以为第一鉴别集合中全部待鉴别语音,也可以为第一鉴别集合中的部分待鉴别语音;待鉴别语音的第一伪造语音特征对应的采样频率为第一采样频率;第二分数阈值可以根据实际的使用需求进行选择,在此不做限定。
可选的,所述基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合,包括:针对于所述第一鉴别语音集合中每个待鉴别语音,将该待鉴别语音的第一伪造语音特征,输入至预先训练好的第一伪造语音识别模型中,计算该待鉴别语音的第一伪造分数;针对于所述第一鉴别语音集合中每个待鉴别语音,当所述第一伪造分数大于预设第二分数阈值时,将该待鉴别语音确定为用于构造第二鉴别语音集合的待鉴别语音;基于用于构造第二鉴别语音集合的待鉴别语音,构建第二鉴别语音集合。
需要说明的是,通过预先训练好的第一伪造语音识别模型,计算第一鉴别语音集合中每个待鉴别语音的第一伪造分数时,当所述伪造语音识别模型为一个模型时,可以通过该伪造语音识别模型确定第一鉴别语音集合中每个待鉴别语音的第一伪造分数;当所述伪造语音识别模型是由合成识别子模型、语音重放识别子模型以及声音转换识别子模型等多个子模型组成的时候,针对于第一鉴别语音集合中每个待鉴别语音,通过各个子模型,计算该待鉴别语音的语音伪造分数,得到多个语音伪造分数,将最大的语音伪造分数确定为该待鉴别语音的第一伪造分数,从而确定出第一鉴别语音集合中每个待鉴别语音的第一伪造分数。
S105、针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
该步骤中,确定出第二鉴别语音集合后,针对于第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征,得到每个待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
可选的,所述针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征,包括:对所述第二鉴别语音集合中的每个待鉴别语音进行降采样处理,得到降采样后的第二鉴别语音集合;其中,降采样后的第二鉴别语音集合中每个待鉴别语音的第一采样频率转换为第二采样频率;针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
该步骤中,通过以下步骤,提取第二鉴别语音集合中每个待鉴别语音的第二鉴别声纹特征和第二伪造语音特征:首先对第二鉴别语音集合中的每个待鉴别语音进行降采样处理,使得第二待鉴别语音中的每个待鉴别语音的采样频率由第一采样频率变为第二采样频率,基于第二采样频率的待鉴别语音,得到降采样后的第二鉴别语音集合;然后,针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征,最后,降采样后的第二鉴别语音集合中的每个待鉴别语音的二鉴别声纹特征和第二伪造语音特征。
需要说明的是,之所以采用降采样处理,是因为采样率降低对声纹特征影响较小,对语音伪造特征影响较大。例如声音转换和语音合成等伪造生成语音,主要是提取高频信息相关的、动态的特征更能反映伪造语音与自然真实语音之前的差别,而这些高频信息相关的、动态的特征主要体现在语音的高频带。
示例的,假设第一采样频率为16000采样频率,降采样后的第二采样频率为8000采用频率,这样,降采样之后,有效频带4000Hz到8000Hz范围内的信息将丢失,从而对伪造分数的输出,改变较大。
S106、基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合。
该步骤中,针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音提取出的第二鉴别声纹特征,确定该待鉴别语音与对应的目标声纹特征的第二声纹相似度,这样可以确定出多个第二声纹相似度;然后,针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,根据该待鉴别语音已经计算出的第一声纹相似度和第二相似度,确定该待鉴别语音的声纹相似度的变化值;再然后,可以根据每个待鉴别语音的声纹相似度变化值,筛选出用于构建第三鉴别语音集合的语音,并构建成第三鉴别语音集合。
需要说明的是,第三鉴别语音集合中的待鉴别语音是从第二鉴别语音集合中筛选出的,可以使用降采样后的第二鉴别语音集合中的全部待鉴别语音,也可以使用降采样后的第二鉴别语音集合中的部分待鉴别语音。
可选的,所述基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合,包括:针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二声纹特征输入至预先训练好的第二声纹识别模型中,计算该待鉴别语音与该待鉴别语音对应的目标声纹特征的第二声纹相似度;针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一声纹相似度和第二声纹相似度,确定该待鉴别语音的声纹变化分数;当所述声纹变化分数小于第三分数阈值时,将该待鉴别语音确定为用于构造第三鉴别语音集合的待鉴别语音;基于用于构造第三鉴别语音集合的待鉴别语音,构建第三鉴别语音集合。
该步骤中,可通过以下步骤构造第三鉴别语音集合:首先,针对于第二待鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二鉴别声纹特征输入至预先训练好的第二声纹识别模型中,其中,预先训练好的第二声纹识别模型中存储有与该待鉴别语音对应的,采样频率为第二采样频率的目标声纹以及该目标声纹的声纹特征,通过第二声纹识别模型确定该第二鉴别声纹特征的特征向量,以及该目标声纹特征的特征向量,基于该第二鉴别声纹特征的特征向量和该目标声纹特征的特征向量,计算该待鉴别语音的声纹与对应的目标声纹的第二声纹相似度,这样可以得到第二待鉴别语音集合中的每个待鉴别语音的第二声纹相似度。
然后,对于第二待鉴别语音集合中的每个待鉴别语音,根据计算得到的该待鉴别语音的第一声纹相似度和第二声纹相似度,计算声纹相似度的变化分数,得到每个待鉴别语音的声纹相似度变化分数。
最后,对于第二待鉴别语音集合中的每个待鉴别语音,使用该待鉴别语音的声纹相似度变化分数与预先设定的第三分数阈值进行比较,筛选出声纹相似度变化分数小于第三分数阈值的待鉴别语音,使用筛选出的待鉴别语音构建第三鉴别语音集合。
需要说明的是,这里使用的第二鉴别语音集合是降采样后的第二鉴别语音集合,第二鉴别语音集合中的每个待鉴别语音的采样频率是第二采样频率;此外,这里使用的预先训练好的第二声纹识别模型,在训练该模型的过程中,使用的语音训练样本的采样频率都为第二采样频率。此外,第三分数阈值的设定可以根据实际使用情况,做适用性选择,在此不做限定。
S107、基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合。
该步骤中,针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,基于该鉴别语音提取出的第二伪造语音特征,确定该待鉴别语音的第二伪造分数,这样可以确定出多个第二伪造分数;然后,针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,根据该待鉴别语音已经计算出的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数的变化值;再然后,可以根据每个待鉴别语音的伪造分数的变化值,筛选出用于构建第四鉴别语音集合的语音,并构建成第四鉴别语音集合。
需要说明的是,第四鉴别语音集合中的待鉴别语音是从第二鉴别语音集合中筛选出的,可以使用降采样后的第二鉴别语音集合中的全部待鉴别语音,也可以使用降采样后的第二鉴别语音集合中的部分待鉴别语音。
可选的,所述基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合,包括:针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,计算该待鉴别语音的第二伪造分数;针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数变化分数;当所述伪造分数变化分数大于第四分数阈值时,将该待鉴别语音确定为用于构造第四鉴别语音集合的待鉴别语音;基于用于构造第四鉴别语音集合的待鉴别语音,构建第四鉴别语音集合。
该步骤中,可通过以下步骤构造第四鉴别语音集合:首先,针对于第二待鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,通过第二声纹识别模型确定该第二伪造语音特征的特征向量,基于该待鉴别语音的第二伪造语音特征的特征向量,计算该待鉴别语音的第二伪造分数。
然后,对于第二待鉴别语音集合中的每个待鉴别语音,根据计算得到的该待鉴别语音的第一伪造分数和第二伪造分数,计算伪造分数变化分数,得到每个待鉴别语音的伪造分数变化分数。
最后,对于第二待鉴别语音集合中的每个待鉴别语音,使用该待鉴别语音的伪造分数变化分数与预先设定的第四分数阈值进行比较,筛选出伪造分数变化分数大于第四分数阈值的待鉴别语音,使用筛选出的待鉴别语音构建第四鉴别语音集合。
需要说明的是,通过预先训练好的第二伪造语音识别模型,计算降采样后的第二鉴别语音集合中每个待鉴别语音的第二伪造分数时,当所述伪造语音识别模型为一个模型时,可以通过该伪造语音识别模型确定降采样后的第二鉴别语音集合中每个待鉴别语音的第二伪造分数;当所述伪造语音识别模型是由合成识别子模型、语音重放识别子模型以及声音转换识别子模型等多个子模型组成的时候,针对于降采样后的第二鉴别语音集合中每个待鉴别语音,通过各个子模型,计算该待鉴别语音的语音伪造分数,得到多个语音伪造分数,将最大的语音伪造分数确定为该待鉴别语音的第二伪造分数,从而确定出降采样后的第二鉴别语音集合中每个待鉴别语音的第二伪造分数。
需要说明的是,这里使用的第二鉴别语音集合是降采样后的第二鉴别语音集合,第二鉴别语音集合中的每个待鉴别语音的采样频率是第二采样频率;此外,这里使用的预先训练好的第二伪造语音识别模型,在训练该模型的过程中,使用的语音训练样本的采样频率均为第二采样频率。此外,第四分数阈值的设定可以根据实际使用情况,做适用性选择,在此不做限定。
S108、将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
该步骤中,确定出第三待鉴别语音集合和第四待鉴别语音集合后,求取第三待鉴别语音集合和第四待鉴别语音集合中的交集,得到最终的待鉴别语音,将得到的最终待鉴别语音确定为伪造语音,并根据之前确定出的待鉴别语音对应的目标声纹特征,以及该目标声纹特征对应的目标人员,确定出伪造语音所对应的目标人员。
需要说明的是,确定出的伪造语音可以存在多个,对应的目标人员可以属于一个人的,也可以属于多个人的。
示例的,假设求取交集后,得到a、b、c、d四个待鉴别语音,这四个待鉴别语音则为伪造语音,但是这四个伪造语音对应的目标人员可以为以下几种情况:伪造语音a对应的目标人员为A,伪造语音b对应的目标人员为B,伪造语音c对应的目标人员为B,伪造语音d对应的目标人员为B;伪造语音a、b、c、d对应的目标人员均为A;伪造语音a、b对应的目标人员为A,伪造语音c、d对应的目标人员为B。本示例,用于帮助更好的理解本申请的技术方案,但并不是本申请技术方案的唯一实现方式。
此外,确定出伪造语音以及伪造语音对应的目标人员后,可以对该伪造语音或伪造语音对应的音频/视频,进行拦截或删除,阻止其进行传播。并且也可以将确定出的伪造语音以及检测结果,发送给审核人员进行复核,审核人员可以对该伪造语音或伪造语音对应的音频/视频,进行适用性操作。
这样,本申请在进行伪造语音识别的过程中,通过多次筛选和融合处理,可以更好的解决语音鉴伪审核中,目标人员伪造语音检测虚警率过高的问题,通过初筛选保证疑似目标说话人语音的高召回率,通过复筛选过滤得到疑似目标人员的伪造语音,最后通过融合判断,实现声纹同一性和语音真伪性的有效集成检测,并且在识别过程中,还充分利用了声纹在不同采样频率下的分数的稳定性和伪造语音在不同采样频率下的分数动态变化性,从而可以有效地滤除目标人员的真实语音,得到目标人员的伪造语音,进而可以提高伪造语音的识别准确率和识别效率。
请参阅图2、图3,图2为本申请实施例所提供的一种伪造语音的识别装置的结构示意图之一,图3为本申请实施例所提供的一种伪造语音的识别装置的结构示意图之二。如图2中所示,所述识别装置200包括:
获取模块210,用于获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;
第一相似度确定模块220,用于针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;
第一集合确定模块230,用于利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;
第二集合确定模块240,用于基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;
特征提取模块250,用于针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;
第三集合确定模块260,用于基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;
第四集合确定模块270,用于基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;
伪造语音确定模块280,用于将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
可选的,所述获取模块210在用于获取多个待鉴别语音时,所述获取模块210用于:
获取多个原始语音;
针对于每个原始语音,对该原始语音进行采样频率转换处理,将原始采样频率转换为第一采样频率的原始语音确定为待鉴别语音。
可选的,所述第一相似度确定模块220在用于针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度时,所述第一相似度确定模块220用于:
针对于每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征,输入至预先训练好的第一声纹识别模型中,计算该待鉴别语音与每个候选声纹特征的第一声纹相似度。
可选的,所述第一集合确定模块230在用于利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征时,所述第一集合确定模块230用于:
针对于每个待鉴别语音,从确定出的该待鉴别语音与每个候选声纹特征之间的第一声纹相似度中,确定出最大第一相似度;
当最大第一相似度大于预设第一分数阈值时,将该待鉴别语音确定为用于构造第一鉴别语音集合的待鉴别语音;
基于用于构造第一鉴别语音集合的待鉴别语音,构建第一鉴别语音集合;
将最大第一相似度对应的候选声纹特征,确定为该待鉴别语音的目标声纹特征。
可选的,所述第二集合确定模块240在用于基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合时,所述第二集合确定模块240用于:
针对于所述第一鉴别语音集合中每个待鉴别语音,将该待鉴别语音的第一伪造语音特征,输入至预先训练好的第一伪造语音识别模型中,计算该待鉴别语音的第一伪造分数;
针对于所述第一鉴别语音集合中每个待鉴别语音,当所述第一伪造分数大于预设第二分数阈值时,将该待鉴别语音确定为用于构造第二鉴别语音集合的待鉴别语音;
基于用于构造第二鉴别语音集合的待鉴别语音,构建第二鉴别语音集合。
可选的,所述特征提取模块250在用于针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征时,所述特征提取模块250用于:
对所述第二鉴别语音集合中的每个待鉴别语音进行降采样处理,得到降采样后的第二鉴别语音集合;其中,降采样后的第二鉴别语音集合中每个待鉴别语音的第一采样频率转换为第二采样频率;
针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
可选的,所述第三集合确定模块260在用于基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合时,所述第三集合确定模块260用于:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二声纹特征输入至预先训练好的第二声纹识别模型中,计算该待鉴别语音与该待鉴别语音对应的目标声纹特征的第二声纹相似度;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一声纹相似度和第二声纹相似度,确定该待鉴别语音的声纹变化分数;
当所述声纹变化分数小于第三分数阈值时,将该待鉴别语音确定为用于构造第三鉴别语音集合的待鉴别语音;
基于用于构造第三鉴别语音集合的待鉴别语音,构建第三鉴别语音集合。
可选的,所述第四集合确定模块270在用于基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合时,所述第四集合确定模块270用于:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,计算该待鉴别语音的第二伪造分数;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数变化分数;
当所述伪造分数变化分数大于第四分数阈值时,将该待鉴别语音确定为用于构造第四鉴别语音集合的待鉴别语音;
基于用于构造第四鉴别语音集合的待鉴别语音,构建第四鉴别语音集合。
可选的,如图3中所示,所述识别装置200还包括模型构建模块290,所述模型构建模块290用于:
获取多个候选语音、多个样本语音、以及每个候选语音和每个样本语音的相似度标签,其中,每个候选语音和每个样本语音的采样频率为第一采样频率;
分别从每个候选语音中提取出候选声纹特征,以及从每个样本语音中提取出样本声纹特征,得到多个候选声纹特征和多个样本声纹特征;
将所述多个候选声纹特征和所述多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如上述的伪造语音的识别方法的步骤。
请参阅图4,图4为本申请实施例所提供的一种电子设备的结构示意图。如图4中所示,所述电子设备400包括处理器410、存储器420和总线430。
所述存储器420存储有所述处理器410可执行的机器可读指令,当电子设备400运行时,所述处理器410与所述存储器420之间通过总线430通信,所述机器可读指令被所述处理器410执行时,可以执行如上述图1所示方法实施例中的伪造语音的识别方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时可以执行如上述图1所示方法实施例中的伪造语音的识别方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (12)
1.一种伪造语音的识别方法,其特征在于,所述识别方法包括:
获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;
针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;
利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;
基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;
针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;
基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;
基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;
将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
2.根据权利要求1所述的识别方法,其特征在于,所述获取多个待鉴别语音,包括:
获取多个原始语音;
针对于每个原始语音,对该原始语音进行采样频率转换处理,将原始采样频率转换为第一采样频率的原始语音确定为待鉴别语音。
3.根据权利要求1所述的识别方法,其特征在于,所述针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度,包括:
针对于每个待鉴别语音,将该待鉴别语音的第一鉴别声纹特征,输入至预先训练好的第一声纹识别模型中,计算该待鉴别语音与每个候选声纹特征的第一声纹相似度。
4.根据权利要求1所述的识别方法,其特征在于,所述利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征,包括:
针对于每个待鉴别语音,从确定出的该待鉴别语音与每个候选声纹特征之间的第一声纹相似度中,确定出最大第一相似度;
当最大第一相似度大于预设第一分数阈值时,将该待鉴别语音确定为用于构造第一鉴别语音集合的待鉴别语音;
基于用于构造第一鉴别语音集合的待鉴别语音,构建第一鉴别语音集合;
将最大第一相似度对应的候选声纹特征,确定为该待鉴别语音的目标声纹特征。
5.根据权利要求1所述的识别方法,其特征在于,所述基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合,包括:
针对于所述第一鉴别语音集合中每个待鉴别语音,将该待鉴别语音的第一伪造语音特征,输入至预先训练好的第一伪造语音识别模型中,计算该待鉴别语音的第一伪造分数;
针对于所述第一鉴别语音集合中每个待鉴别语音,当所述第一伪造分数大于预设第二分数阈值时,将该待鉴别语音确定为用于构造第二鉴别语音集合的待鉴别语音;
基于用于构造第二鉴别语音集合的待鉴别语音,构建第二鉴别语音集合。
6.根据权利要求2所述的识别方法,其特征在于,所述针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征,包括:
对所述第二鉴别语音集合中的每个待鉴别语音进行降采样处理,得到降采样后的第二鉴别语音集合;其中,降采样后的第二鉴别语音集合中每个待鉴别语音的第一采样频率转换为第二采样频率;
针对于降采样后的第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征。
7.根据权利要求1所述的识别方法,其特征在于,所述基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合,包括:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二声纹特征输入至预先训练好的第二声纹识别模型中,计算该待鉴别语音与该待鉴别语音对应的目标声纹特征的第二声纹相似度;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一声纹相似度和第二声纹相似度,确定该待鉴别语音的声纹变化分数;
当所述声纹变化分数小于第三分数阈值时,将该待鉴别语音确定为用于构造第三鉴别语音集合的待鉴别语音;
基于用于构造第三鉴别语音集合的待鉴别语音,构建第三鉴别语音集合。
8.根据权利要求1所述的识别方法,其特征在于,所述基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合,包括:
针对于所述第二鉴别语音集合中的每个待鉴别语音,将该待鉴别语音的第二伪造语音特征输入至预先训练好的第二伪造语音识别模型中,计算该待鉴别语音的第二伪造分数;
针对于所述第二鉴别语音集合中的每个待鉴别语音,基于该待鉴别语音的第一伪造分数和第二伪造分数,确定该待鉴别语音的伪造分数变化分数;
当所述伪造分数变化分数大于第四分数阈值时,将该待鉴别语音确定为用于构造第四鉴别语音集合的待鉴别语音;
基于用于构造第四鉴别语音集合的待鉴别语音,构建第四鉴别语音集合。
9.根据权利要求3所述的识别方法,其特征在于,通过以下方法训练第一声纹识别模型:
获取多个候选语音、多个样本语音、以及每个候选语音和每个样本语音的相似度标签,其中,每个候选语音和每个样本语音的采样频率为第一采样频率;
分别从每个候选语音中提取出候选声纹特征,以及从每个样本语音中提取出样本声纹特征,得到多个候选声纹特征和多个样本声纹特征;
将所述多个候选声纹特征和所述多个样本声纹特征作为输入,将多个相关度标签作为输出,训练预先构建好的神经网络,得到第一声纹识别模型。
10.一种伪造语音的识别装置,其特征在于,所述识别装置包括:
获取模块,用于获取多个待鉴别语音,以及每个待鉴别语音的第一鉴别声纹特征和第一伪造语音特征;
第一相似度确定模块,用于针对于每个待鉴别语音,基于该待鉴别语音的第一鉴别声纹特征,确定该待鉴别语音与每个候选声纹特征之间的第一声纹相似度;
第一集合确定模块,用于利用所述第一声纹相似度大于预设第一分数阈值的待鉴别语音构造第一鉴别语音集合,并确定所述第一鉴别语音集合中每个待鉴别语音对应的目标声纹特征;
第二集合确定模块,用于基于所述第一鉴别语音集合中每个待鉴别语音的第一伪造语音特征,确定所述第一鉴别语音集合中每个待鉴别语音的第一伪造分数,并利用所述第一伪造分数大于预设第二分数阈值的待鉴别语音构造第二鉴别语音集合;
特征提取模块,用于针对于所述第二鉴别语音集合中的每个待鉴别语音,提取该待鉴别语音的第二鉴别声纹特征和第二伪造语音特征;
第三集合确定模块,用于基于每个待鉴别语音的第二鉴别声纹特征,确定每个待鉴别语音与每个目标声纹特征的第二声纹相似度,并基于所述第一声纹相似度和所述第二声纹相似度,确定出用于构造第三鉴别语音集合的待鉴别语音,并构造所述第三鉴别语音集合;
第四集合确定模块,用于基于每个待鉴别语音的第二伪造语音特征,确定每个待鉴别语音的第二伪造分数,并基于所述第一伪造分数和所述第二伪造分数,确定出用于构造第四鉴别语音集合的待鉴别语音,并构造所述第四鉴别语音集合;
伪造语音确定模块,用于将所述第三鉴别语音集合与所述第四鉴别语音集合中均包括的待鉴别语音确定为伪造语音,并将所述待鉴别语音对应的目标声纹特征所属的目标人员确定为所述伪造语音对应的目标人员。
11.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1至9任一所述伪造语音的识别方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至9任一所述伪造语音的识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110759437.3A CN113257255B (zh) | 2021-07-06 | 2021-07-06 | 一种伪造语音的识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110759437.3A CN113257255B (zh) | 2021-07-06 | 2021-07-06 | 一种伪造语音的识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113257255A true CN113257255A (zh) | 2021-08-13 |
CN113257255B CN113257255B (zh) | 2021-09-21 |
Family
ID=77190686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110759437.3A Active CN113257255B (zh) | 2021-07-06 | 2021-07-06 | 一种伪造语音的识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113257255B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114023329A (zh) * | 2021-10-13 | 2022-02-08 | 南京龙垣信息科技有限公司 | 跨信道声纹比对方法、系统、计算机设备及存储介质 |
CN114596879A (zh) * | 2022-03-25 | 2022-06-07 | 北京远鉴信息技术有限公司 | 一种虚假语音的检测方法、装置、电子设备及存储介质 |
CN115497481A (zh) * | 2022-11-17 | 2022-12-20 | 北京远鉴信息技术有限公司 | 一种虚假语音的识别方法、装置、电子设备及存储介质 |
CN115578999A (zh) * | 2022-12-07 | 2023-01-06 | 深圳市声扬科技有限公司 | 复制语音的检测方法、装置、电子设备及存储介质 |
CN117133295A (zh) * | 2023-10-24 | 2023-11-28 | 清华大学 | 基于类脑感知和决策的伪造语音检测方法、装置及设备 |
CN117690455A (zh) * | 2023-12-21 | 2024-03-12 | 合肥工业大学 | 基于滑动窗口的部分合成伪造语音检测方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913855A (zh) * | 2016-04-11 | 2016-08-31 | 宁波大学 | 一种基于长窗比例因子的回放语音攻击检测算法 |
US20160351197A1 (en) * | 2013-09-11 | 2016-12-01 | Texas Instruments Incorporated | User Programmable Voice Command Recognition Based on Sparse Features |
CN108198574A (zh) * | 2017-12-29 | 2018-06-22 | 科大讯飞股份有限公司 | 变声检测方法及装置 |
CN110164453A (zh) * | 2019-05-24 | 2019-08-23 | 厦门快商通信息咨询有限公司 | 一种多模型融合的声纹识别方法、终端、服务器及存储介质 |
CN110634492A (zh) * | 2019-06-13 | 2019-12-31 | 中信银行股份有限公司 | 登录验证方法、装置、电子设备及计算机可读存储介质 |
CN111816203A (zh) * | 2020-06-22 | 2020-10-23 | 天津大学 | 基于音素级分析抑制音素影响的合成语音检测方法 |
-
2021
- 2021-07-06 CN CN202110759437.3A patent/CN113257255B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160351197A1 (en) * | 2013-09-11 | 2016-12-01 | Texas Instruments Incorporated | User Programmable Voice Command Recognition Based on Sparse Features |
CN105913855A (zh) * | 2016-04-11 | 2016-08-31 | 宁波大学 | 一种基于长窗比例因子的回放语音攻击检测算法 |
CN108198574A (zh) * | 2017-12-29 | 2018-06-22 | 科大讯飞股份有限公司 | 变声检测方法及装置 |
CN110164453A (zh) * | 2019-05-24 | 2019-08-23 | 厦门快商通信息咨询有限公司 | 一种多模型融合的声纹识别方法、终端、服务器及存储介质 |
CN110634492A (zh) * | 2019-06-13 | 2019-12-31 | 中信银行股份有限公司 | 登录验证方法、装置、电子设备及计算机可读存储介质 |
CN111816203A (zh) * | 2020-06-22 | 2020-10-23 | 天津大学 | 基于音素级分析抑制音素影响的合成语音检测方法 |
Non-Patent Citations (1)
Title |
---|
林晓丹: "采用线性预测模型的语音篡改检测", 《华侨大学学报(自然科学版)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114023329A (zh) * | 2021-10-13 | 2022-02-08 | 南京龙垣信息科技有限公司 | 跨信道声纹比对方法、系统、计算机设备及存储介质 |
CN114596879A (zh) * | 2022-03-25 | 2022-06-07 | 北京远鉴信息技术有限公司 | 一种虚假语音的检测方法、装置、电子设备及存储介质 |
CN114596879B (zh) * | 2022-03-25 | 2022-12-30 | 北京远鉴信息技术有限公司 | 一种虚假语音的检测方法、装置、电子设备及存储介质 |
CN115497481A (zh) * | 2022-11-17 | 2022-12-20 | 北京远鉴信息技术有限公司 | 一种虚假语音的识别方法、装置、电子设备及存储介质 |
CN115497481B (zh) * | 2022-11-17 | 2023-03-03 | 北京远鉴信息技术有限公司 | 一种虚假语音的识别方法、装置、电子设备及存储介质 |
CN115578999A (zh) * | 2022-12-07 | 2023-01-06 | 深圳市声扬科技有限公司 | 复制语音的检测方法、装置、电子设备及存储介质 |
CN117133295A (zh) * | 2023-10-24 | 2023-11-28 | 清华大学 | 基于类脑感知和决策的伪造语音检测方法、装置及设备 |
CN117133295B (zh) * | 2023-10-24 | 2023-12-29 | 清华大学 | 基于类脑感知和决策的伪造语音检测方法、装置及设备 |
CN117690455A (zh) * | 2023-12-21 | 2024-03-12 | 合肥工业大学 | 基于滑动窗口的部分合成伪造语音检测方法和系统 |
CN117690455B (zh) * | 2023-12-21 | 2024-05-28 | 合肥工业大学 | 基于滑动窗口的部分合成伪造语音检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113257255B (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113257255B (zh) | 一种伪造语音的识别方法、装置、电子设备及存储介质 | |
RU2738325C2 (ru) | Способ и устройство аутентификации личности | |
CN111709004B (zh) | 一种身份认证方法、装置、电子设备及可读存储介质 | |
US8078463B2 (en) | Method and apparatus for speaker spotting | |
CN103475490B (zh) | 一种身份验证方法及装置 | |
Seo et al. | Audio fingerprinting based on normalized spectral subband centroids | |
CN105991593B (zh) | 一种识别用户风险的方法及装置 | |
CN111861240A (zh) | 可疑用户识别方法、装置、设备及可读存储介质 | |
Xie et al. | Copy-move detection of digital audio based on multi-feature decision | |
EP2360619A1 (en) | Fast fingerprint searching method and fast fingerprint searching system | |
CN112712809B (zh) | 一种语音检测方法、装置、电子设备及存储介质 | |
Kiktova et al. | Gun type recognition from gunshot audio recordings | |
CN111816185A (zh) | 一种对混合语音中说话人的识别方法及装置 | |
JP7259981B2 (ja) | 話者認証システム、方法およびプログラム | |
CN113645173A (zh) | 一种恶意域名的识别方法、系统和设备 | |
Sadak et al. | Dynamic and static feature fusion for increased accuracy in signature verification | |
CN112911334A (zh) | 基于音视频数据的情绪识别方法、装置、设备及存储介质 | |
CN109815359B (zh) | 图像检索方法及相关产品 | |
CN114817518B (zh) | 基于大数据档案识别的证照办理方法、系统及介质 | |
WO2019187107A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN111339829B (zh) | 用户身份鉴定方法、装置、计算机设备和存储介质 | |
Xavier | Identification of Age Voiceprint Using Machine Learning Algorithms | |
CN108304746B (zh) | 更新用于心电身份认证的认证参考信息的方法及设备 | |
Indi et al. | Person identification based on multi-biometric characteristics | |
Divakar | Multimodal biometric system using index based algorithm for fast search |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |