CN114863905A - 语音类别获取方法、装置、电子设备和存储介质 - Google Patents
语音类别获取方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114863905A CN114863905A CN202210636416.7A CN202210636416A CN114863905A CN 114863905 A CN114863905 A CN 114863905A CN 202210636416 A CN202210636416 A CN 202210636416A CN 114863905 A CN114863905 A CN 114863905A
- Authority
- CN
- China
- Prior art keywords
- voice
- feature vector
- target
- information
- voice data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 239000013598 vector Substances 0.000 claims abstract description 225
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 81
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 81
- 238000000605 extraction Methods 0.000 claims abstract description 50
- 238000012216 screening Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 39
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 19
- 238000009432 framing Methods 0.000 claims description 15
- 238000005457 optimization Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 33
- 238000012549 training Methods 0.000 abstract description 19
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 40
- 238000005516 engineering process Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供一种语音类别获取方法、装置、电子设备和存储介质,属于机器学习技术领域。该方法包括:获取参考语音数据,获取目标用户的原始语音数据,对参考语音数据进行声纹特征提取,得到预设特征向量,并对原始语音数据进行声纹特征提取处理,得到声纹特征向量,对声纹特征向量和预设特征向量进行相似度计算,得到相似度值,根据相似度值从预设特征向量筛选出目标特征向量,通过目标特征向量从至少两个语音类别筛选出目标语音类别。本申请的语音类别获取方法,可以得到与目标用户最相似的语音类别,在后续的使用过程中,即可对输入文本进行个性化的语音合成,无需用户录制大量的语音训练数据来训练语音合成模型,使用流程更加简单和便捷。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音类别获取方法、装置、电子设备和存储介质。
背景技术
个性化的语音合成在当前的语音交互场景中广泛使用,用户可以通过输入文本信息,生成具有不同语音类别(音色、音高、音强等)的语音信息。相关技术中的个性化语音生成方法中,一般需要收集用户录制的语音信息来训练语音合成模型,从而使语音合成模型可以输出与用户语音类别相似的语音信息,但这种方法需要用户根据指定的文本录制大量的语音训练数据,不仅流程繁琐,且耗时较长。
发明内容
本申请实施例的主要目的在于提出一种语音类别获取方法、装置、电子设备和存储介质,可以提高获取相应语音类别的准确性和效率。
为实现上述目的,本申请实施例的第一方面提出了一种语音类别获取方法,所述方法包括:
获取参考语音数据;其中,所述参考语音数据包括至少两个语音类别,所述参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
获取目标用户的原始语音数据;其中,所述原始语音数据由所述目标用户根据所述第一文本信息录制得到;
对所述参考语音数据进行声纹特征提取,得到预设特征向量,并对所述原始语音数据进行声纹特征提取处理,得到声纹特征向量;
根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量;
通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别。
在一些实施例中,所述获取参考语音数据,包括:
将第二文本信息输入至预设的多语音合成模型,得到虚拟音频信息;其中,所述虚拟音频信息包括所述至少两个语音类别,每一所述语音类别对应一个所述真实说话人;
根据所述虚拟音频信息,获取所述真实说话人根据所述第一文本信息进行录制生成的所述参考语音数据。
在一些实施例中,所述对所述参考语音数据进行声纹特征提取,得到预设特征向量,包括:
提取所述参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量;
将所述语音特征向量输入至训练好的广义端到端特征提取模型中进行声纹特征提取,得到所述预设特征向量。
在一些实施例中,所述提取所述参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量,包括:
对所述参考语音数据进行预加重处理,得到高频信息;
对所述高频信息进行分帧处理,得到分帧信息;
对所述分帧信息进行加窗处理,得到优化信息;
对所述优化信息进行快速傅里叶变换,得到频域信息;
将所述频域信息通过梅尔滤波器组进行滤波,得到滤波信息;
将所述滤波信息进行取对数处理,得到局部信息;
对所述局部信息进行离散余弦变换,得到压缩信息;
对所述压缩信息进行动态差分参数提取,得到所述语音特征向量。
在一些实施例中,所述根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量,包括:
对所述声纹特征向量和所述预设特征向量进行相似度计算,得到相似度值;
根据所述相似度值从所述预设特征向量筛选出所述目标特征向量。
在一些实施例中,所述根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量,还包括:
计算所述声纹特征向量与所述预设特征向量之间的余弦相似度,得到所述相似度值;
对所述相似度值进行最大值筛选处理,得到最大相似度值;
根据所述最大相似度值从所述预设特征向量筛选出所述目标特征向量。
在一些实施例中,所述通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别,包括:
通过所述目标特征向量对所述参考语音数据进行匹配处理,得到目标参考语音;
通过所述目标参考语音对所述至少两个语音类别进行匹配处理,得到所述目标语音类别。
为实现上述目的,本申请的第二方面提出了一种语音类别获取装置,所述装置包括:
第一语音获取模块,所述第一语音获取模块用于获取参考语音数据;其中,所述参考语音数据包括至少两个语音类别,所述参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
第二语音获取模块,所述第二语音获取模块用于获取目标用户的原始语音数据;其中,所述原始语音数据由所述目标用户根据所述第一文本信息录制得到;
特征提取模块,所述特征提取模块用于对所述参考语音数据进行声纹特征提取,得到预设特征向量,并对所述原始语音数据进行声纹特征提取处理,得到声纹特征向量;
第一筛选模块,所述第一筛选模块用于根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量;
第二筛选模块,所述第二筛选模块用于通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别。
为实现上述目的,本申请的第三方面提出了一种电子设备,包括:
至少一个存储器;
至少一个处理器;
至少一个程序;
所述程序被存储在存储器中,处理器执行所述至少一个程序以实现本申请如上述第一方面所述的方法。
为实现上述目的,本申请的第四方面提出了一种存储介质,该存储介质是计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如上述第一方面所述的方法。
本申请实施例提出的语音类别获取方法、语音类别获取装置、电子设备和存储介质,首先通过获取目标用户录制的原始语音数据和由真实说话人录制的参考语音数据,然后对原始语音数据和参考语音数据分别进行声纹特征提取处理,得到对应的声纹特征向量和预设特征向量,并从预设特征向量中筛选出与声纹特征向量最相似的特征向量,作为目标特征向量。由于目标特征向量与参考语音数据对应,且参考语音数据与语音类别对应,因此通过筛选,可以得到与目标特征向量对应的语音类别,且得到的语音类别与目标用户输入的原始语音数据的语音特征最为相似。在后续的使用过程中,通过选择得到的语音类别对目标用户的输入文本进行个性化的语音合成,即可得到与目标用户的语音特征相似的语音数据,无需用户录制大量的语音训练数据来训练语音合成模型,使用流程更加简单和便捷。
附图说明
图1是本申请实施例提供的语音类别获取方法的流程图;
图2是图1实施例中步骤S100的流程图;
图3是图1实施例中步骤S300的流程图;
图4是图3实施例中步骤S310的流程图;
图5是图1实施例中步骤S500的流程图;
图6是图1另一实施例中步骤S500的流程图;
图7是图1中步骤S600的流程图;
图8是本申请一实施例语音类别获取方法的示意图;
图9是本申请实施例提供的语音类别获取装置的模块图;
图10是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
首先,对本申请中涉及的若干名词进行解析:
语音合成:又称文语转换(Text To Speech,TTS),是一种可以将任意地输入文本转换成相应语音的技术。传统的语音合成系统通常包括前端和后端两个模块。前端模块主要是对输入文本进行分析,提取后端模块所需要的语言学信息,对于中文合成系统而言,前端模块一般包含文本正则化、分词、词性预测、多音字消歧、韵律预测等子模块。后端模块根据前端分析结果,通过一定的方法生成语音波形,后端系统一般分为基于统计参数建模的语音合成(或称参数合成)以及基于单元挑选和波形拼接的语音合成(或称拼接合成)。
对于后端系统中的参数合成而言,该方法在训练阶段对语言声学特征、时长信息进行上下文相关建模,在合成阶段通过时长模型和声学模型预测声学特征参数,对声学特征参数做后处理,最终通过声码器恢复语音波形。该方法可以在语音库相对较小的情况下,得到较为稳定的合成效果;缺点在于统计建模带来的声学特征参数“过平滑”问题,以及声码器对音质的损伤。
对于后端系统中的拼接合成而言,训练阶段与参数合成基本相同,在合成阶段通过模型计算来指导单元挑选,采用动态规划算法选出最优单元序列,再对选出的单元进行能量规整和波形拼接。拼接合成直接使用真实的语音片段,可以最大限度保留语音音质;缺点是需要的音库一般较大,而且无法保证领域外文本的合成效果。
多语音合成模型:是通过采集多个不同说话人的语音数据作为训练数据,然后通过训练数据对语音合成模型进行训练,训练好的多语音合成模型可以将用户输入的一段文本信息,通过语音合成处理后,输出多种不同语音类别的语音信息,从而达到个性化语音合成的效果。
梅尔频率倒谱系数(Mel Frequency Cepstral Coefficents,MFCCs):是组成梅尔频率倒谱的系数,梅尔频率倒谱的频带划分是在梅尔刻度上等距划分的,它比用于正常的对数倒频谱中的线性间隔的频带更能近似拟合人类的听觉系统,被广泛应用于语音识别、深度学习等领域中。
广义端到端(Generalized end-to-end,GE2E):是在TE2E的基础上,针对损失函数进行了改进,GE2E loss包含softmax和contrast两种具体形式,每种形式的目标不仅增大样本与所属说话人中心的cosine得分,同时也减小了样本与非所属说话人中心cosine得分。此外,在GE2E计算consine得分时,采用相似矩阵计算形式,一次性计算所有consine得分,相比于TE2E,可显著加速计算过程。GE2E网络模型采用多层LSTMP形式,提取输入样本的说话人表达,然后计算验证样本和所有说话人中心的cosine得分,最后通过softmax或contrast进行基于相似度得分的损失统计,并反向传播更新参数。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
相关技术中的个性化语音生成方法中,需要收集用户根据指定的文本录制的大量语音数据来训练语音合成模型,从而使语音合成模型可以输出与用户语音类别相似的语音信息。但使用此种方法进行个性化语音生成时,每一个不同的用户都需要单独训练一个模型,导致部署模型的成本较高,且在进行模型训练的过程中,流程较为繁琐且耗时较长。
基于此,本申请实施例提供一种语音类别获取方法、语音类别获取装置、电子设备和存储介质,可以在不需要用户录制大量的语音训练数据的情况下,即可便捷地获取与用户语言特征相似的语音类别,从而满足个性化语音合成的需要。
本申请实施例提供一种语音类别获取方法、语音类别获取装置、电子设备和存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的语音类别获取方法。
本申请实施例提供的语音类别获取方法,涉及人工智能技术领域。本申请实施例提供的语音类别获取方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现语音类别获取方法的应用等,但并不局限于以上形式。
图1是本申请实施例提供的语音类别获取方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S100至步骤S600。
S100,获取参考语音数据;其中,参考语音数据包括至少两个语音类别,参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
S200,获取目标用户的原始语音数据;其中,原始语音数据由目标用户根据第一文本信息录制得到;
S300,对参考语音数据进行声纹特征提取,得到预设特征向量;
S400,对原始语音数据进行声纹特征提取处理,得到声纹特征向量;
S500,根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量;
S600,通过目标特征向量从至少两个语音类别筛选出目标语音类别。
本申请实施例公开的语音类别获取方法,首先通过获取目标用户录制的原始语音数据和由真实说话人录制的参考语音数据,然后对原始语音数据和参考语音数据分别进行声纹特征提取处理,得到对应的声纹特征向量和预设特征向量,并从预设特征向量中筛选出与声纹特征向量最相似的特征向量,作为目标特征向量。由于目标特征向量与参考语音数据对应,且参考语音数据与语音类别对应,因此通过筛选,可以得到与目标特征向量对应的语音类别,且得到的语音类别与目标用户输入的原始语音数据的语音特征最为相似。在后续的使用过程中,通过选择得到的语音类别对目标用户的输入文本进行个性化的语音合成,即可得到与目标用户的语音特征相似的语音数据,无需用户录制大量的语音训练数据来训练语音合成模型,使用流程更加简单和便捷。
在一些实施例中,步骤S100中获取的参考语音数据包括了至少两个语音类别的语音数据。本申请中的语音类别用于表征不同说话人的语音特色,不同说话人所录制得到的语音数据中,语音的音色、音高、音强等声音特征不同,通过分辨语音数据的声音特征即可判断对应的语音类别。
本申请实施例中的语音类别与真实说话人一一对应,即每一个真实说话人所录制的语音数据都对应着一个语音类别。例如,当语音类别以说话人的性别进行划分时,语音类别可以为男性或女性,对应的真实说话人即为男性说话人或女性说话人;当语音类别以说话人的年龄进行划分时,语音类别可以为青年、中年、老年,对应的真实说话人即为青年说话人、中年说话人和老年说话人,此时,在选取真实说话人时,即不需要考虑性别差异。可以理解的是,由于不同说话人的声音特征都不尽相同,因此在对语音类别进行划分时,也可以以每一个真实说话人的声音特征单独进行划分。
在录制参考语音数据时,真实说话人需要根据第一文本信息的内容进行语音录制,即参考语音数据中,语音数据的内容都为相同的一段文本信息,其区别仅在于语音数据的声音特征不同。
在一些实施例中,参照图2,步骤S100中,获取参考语音数据,具体包括:
S110,将第二文本信息输入至预设的多语音合成模型,得到虚拟音频信息;其中,虚拟音频信息包括至少两个语音类别,每一语音类别对应一个真实说话人;
S120,根据虚拟音频信息,获取真实说话人根据第一文本信息进行录制生成的参考语音数据。
首先对本申请的多语音合成模型进行简单说明。在本申请的实施例中,多语音合成模型可以采用诸如Tacotron、Tacotron2等多语音合成网络来进行构建。在构建多语音合成模型时,通过使用多个说话人的训练数据集对模型进行训练,训练数据集中包含每个说话人的训练数据,而每个人的训练数据,又可以包含该说话人的语音数据和对应的文本,还有根据该语音数据和文本提取出来的语言学特征和声学特征,每一个说话人在这个模型中都有一个对应的说话人编号。在使用多语音合成模型输出音频信息时,通过输入文本信息,并选择对应的说话人编号,多语音合成模型即可输出具有对应的说话人声音特征的音频信息。
本申请实施例在获取参考语音数据时,首先通过步骤S110,使用多语音合成模型输出虚拟音频信息,虚拟音频信息包括至少两个语音类别,且每一语音类别对应一个真实说话人。可以理解的是,通过改变多语音合成模型中的说话人编号,并输入第二文本信息,即可得到不同语音类别的音频信息,从而得到虚拟音频信息。可以理解的是,本申请实施例中的虚拟音频信息仅用于选择语音类别相似的真实说话人,因此输入的第二文本信息可以为任意文本内容,可以与第一文本信息不同。
通过步骤S120,根据虚拟音频信息,获取真实说话人根据第一文本信息进行录制生成的参考语音数据。具体过程为,首先判断虚拟音频信息中多个音频信息对应的语音类别,即音频信息对应的声音特征。然后选择与对应的声音特征相似的说话人,将多个说话人作为真实说话人。选择真实说话人结束后,真实说话人根据第一文本信息进行语音录制,从而得到包括多个语音数据的参考语音数据。可以理解的是,得到的参考语音数据与真实说话人一一对应,真实说话人与虚拟音频信息一一对应,虚拟音频信息与多语音合成模型中的说话人编号一一对应。
由于虚拟音频信息是通过多语音合成模型通过语音合成得到的,因此虚拟音频信息的声音特征没有真实说话人的声音特征自然,不利于后续的声纹特征提取过程,且由于在后续的比较筛选过程中,是与目标用户录制的原始语音数据进行相似度比较,若直接采用虚拟音频信息与原始语音数据进行比较,则可能会产生声音特征匹配不准确的问题。因此本申请实施例通过引入与虚拟音频信息的语音类别相同的真实说话人,并采集真实说话人的的语音数据作为参考语音数据,来与目标用户的原始语音数据进行相似度比较,可以提高在声纹特征提取和相似度匹配过程中的准确性。使得最终筛选出来的目标语音类别更加符合目标用户真实的语音特征。
可以理解的是,在本申请实施例中,根据用户的原始语音数据通过筛选匹配得到对应的目标语音类别后,可以得到与目标语音类别对应的多语音合成模型中的特定说话人编号。在后续的使用过程中,将多语音合成模型的说话人编号设置为特定说话人编号后,通过多语音合成模型得到的音频信息的声音特征即与目标用户的声音特征相同或相似,以此达到个性化语音合成的目的,且无需使用目标用户的语音数据来训练语音合成模型。
在一些其他实施例中,获取虚拟音频信息时也可以不通过多语音合成模型。例如,可以通过独立训练的语音合成模型来输出对应的虚拟音频信息,在后续的匹配筛选过程中,可以筛选出输出的语音信息的声音特征与目标用户最相似的语音合成模型;或者在获取参考语音数据时,可以直接获取训练语音合成模型时,真实说话人根据预设文本录制的语音数据,无需重新选择真实说话人进行语音录制;或者语音类别对应着不同的语音合成数据库,语音合成数据库中包括文本信息和与文本信息对应的语音信息,通过匹配输入的文本信息,即可得到对应的语音信息,目标用户通过匹配对应的语音合成数据库,也可以达到进行个性化语音合成的目的。
在一些实施例中,语音类别包括:青年男性类别、中年男性类别、老年男性类别、青年女性类别、中年女性类别、老年女性类别。本申请实施例的语音类别包括了六种不同年龄或性别的真实人的语音特征。可以理解的是,本实施例中的多语音合成模型在输出对应的虚拟音频信息时,通过分别将多语音合成模型中的说话人编号设置为:青年男性说话人编号、中年男性说话人编号、老年男性说话人编号、青年女性说话人编号、中年女性说话人编号、老年女性说话人编号,通过多语音合成模型进行语音合成处理后输出的虚拟音频信息的语音类别即包括:青年男性类别、中年男性类别、老年男性类别、青年女性类别、中年女性类别、老年女性类别。对应的,在通过语音类别选择真实说话人时,真实说话人的语音特征即对应于青年男性、中年男性、老年男性、青年女性、中年女性、老年女性,通过语音录制后,得到对应的语音类别的参考语音数据。
目标用户在通过原始语音数据与参考语音数据进行比较筛选后,即可得到对应的目标语音类别,从而可以完成个性化的语音合成。本申请实施例中,通过设置六种语音类别,即可完成对多种目标用户的语音特征的分类,可以满足大部分用户的需求,且得到的合成语音与自身的语音特征较为相似,可以满足用户的个性化语音合成的要求。在一些其他实施例中,语音类别也可以以性别进行划分,语音类别可以为男性或女性,或者语音类别可以以年龄进行划分,语音类别可以为青年、中年、老年,或者语音类别可以更加细分为具有独特语音特征的多种类型。
在一些实施例中,步骤S200中,获取目标用户的原始语音数据可以采用如下方式。当本申请实施例的语音类别获取方法应用于智能终端上时,例如智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等,智能终端上可以显示出第一文本信息,然后目标用户根据显示的第一文本信息读出具体的文本内容,智能终端通过自身设置的语音采集装置进行语音采集,从而得到目标用户的原始语音数据。可以理解的是,本申请实施例采集得到的原始语音数据仅仅用于后续的相似度比较过程,而不是用于训练语音合成模型,因此第一文本信息可以为简短的一句话,采集得到的原始语音数据的时长也可以比较简短。例如,可以采集一段时长为2秒的原始语音数据,即可满足后续的相似度比较步骤的需要。
录制原始语音数据时,参照的第一文本信息的文本内容需要与步骤S100中获取参考语音数据时,真实说话人进行语音录制时参照的文本内容相同,以便于后续的相似度比较过程。第一文本信息的具体文本内容可以根据需要进行设置,在此不做具体限制。
在一些实施例中,参照图3,步骤S300中,对参考语音数据进行声纹特征提取,得到预设特征向量,具体包括:
S310,提取参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量;
S320,将语音特征向量输入至训练好的广义端到端特征提取模型中进行声纹特征提取,得到预设特征向量。
本申请实施例的对参考语音数据的声纹特征提取主要包括以下两个步骤。首先通过步骤S310,对参考语音数据进行特征提取,提取出参考语音数据中的梅尔频率倒谱系数特征,并将梅尔频率倒谱系数特征作为语音特征向量。当使用智能终端获取参考语音数据时,智能终端可以通过内置的处理器对获取的参考语音数据进行特征提取,或者可以将获取的参考语音数据上传至云服务器中,通过云服务器中的处理程序对参考语音数据进行特征提取,以得到语音特征向量。
本申请的语音特征向量为使用梅尔频率倒谱系数的语音特征提取算法来对参考语音数据进行处理后得到的。在一些其他实施例中,语音特征提取算法也可以为线性预测系数、线性预测倒谱系数、谱线频率、离散小波变换、感知线性预测算法中的一种。通过上述的语音特征提取算法可以将参考语音数据处理为低维的、以数值表示的向量特征,提取得到的语音特征向量在保存声音状态信息的情况下,同时减少了后续处理过程中的计算量。
提取得到语音特征向量后,通过步骤S320,将语音特征向量输入至训练好的广义端到端特征提取模型中进行声纹特征提取,以得到预设特征向量。本申请实施例的广义端到端特征提取模型为GE2E模型,广义端到端特征提取模型通过大量的语音数据进行训练后,可以更好的检测出验证样本与中心说话人的相似程度。可以理解的是,参考语音数据中包括多个语音数据,对应得到的语音特征向量中也包括多个特征向量,经过声纹特征提取后的预设特征向量中,也对应包括多个特征向量。
本申请实施例通过将语音特征向量输入至广义端到端特征提取模型中进行声纹特征提取,得到的预设特征向量中的特征向量可以更加准确的区分不同说话人的声音特征,提高了向量匹配时的准确性。在一些其他实施例中,也可以仅使用语音特征提取算法来提取参考语音数据中的语音数据的特征向量,对应的原始语音数据也采用相同的算法来进行特征提取,以此进行后续的相似度计算过程。
在一些实施例中,参照图4,步骤S310中,提取参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量,具体包括:
S311,对参考语音数据进行预加重处理,得到高频信息;
S312,对高频信息进行分帧处理,得到分帧信息;
S313,对分帧信息进行加窗处理,得到优化信息;
S314,对优化信息进行快速傅里叶变换,得到频域信息;
S315,将频域信息通过梅尔滤波器组进行滤波,得到滤波信息;
S316,将滤波信息进行取对数处理,得到局部信息;
S317,对局部信息进行离散余弦变换,得到压缩信息;
S318,对压缩信息进行动态差分参数提取,得到语音特征向量。
本申请实施例的对参考语音数据进行特征提取的方式,采用梅尔倒频谱系数。其具体过程为:首先对参考语音数据进行预加重处理,通过在频域上乘上一个与频率正相关的系数,提取出声音信息所包含的高频信息;在一些其他实施例中,也可以使用高通滤波器来实现。
然后对高频信息进行分帧,将高频信息分成固定的多段声音信号,得到分帧信息,方便继续进行后续的处理过程;将分帧信息进行加窗处理,以消除各段声音信号两端所造成的谱泄漏,常用的窗函数有方窗、汉明窗和汉宁窗等,可以根据具体的处理过程任意选择,通过加窗处理后得到优化信息;
然后将优化信息进行快速傅里叶变换,将优化信息的时域信号转换为频域信号,以得到频域信息;由于频域信息中有很多冗余,因此将频域信息输入至梅尔滤波器组中,对频域信息进行滤波处理,在每一个频段用一个值来表示,得到滤波后的滤波信息;由于人耳对声音的感知并不是线性的,因此对滤波信息进行取对数处理,得到局部信息;然后对局部信息进行离散余弦变换,对局部信息进行降维,得到压缩信息;最后对压缩信息进行离散余弦变换,得到一维的语音特征向量,方便进行后续的向量比较过程。
在一些实施例中,步骤S400中,对原始语音数据进行声纹特征提取处理,得到声纹特征向量。对原始语音数据进行声纹特征提取处理的具体方式与对参考语音数据进行声纹特征提取的具体方式相同,以保证提取得到的声纹特征向量与预设特征向量之间的可比较性。其具体过程与上述实施例中的对参考语音进行声纹特征提取的方式相同,此处不再一一赘述。
在一些实施例中,参照图5,步骤S500中,根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量,包括:
S510,对声纹特征向量和预设特征向量进行相似度计算,得到相似度值;
S520,根据相似度值从预设特征向量筛选出目标特征向量。
本申请实施例获取目标特征向量时,采用计算相似度的方式。首先通过步骤S510,对声纹特征向量和预设特征向量进行相似度计算,声纹特征向量中的特征向量的数量仅为一个,预设特征向量中的特征向量的数量为多个,因此通过步骤S510,计算声纹特征向量与预设特征向量之间的相似度时,分别计算声纹特征向量与预设特征向量中多个特征向量之间的相似度,从而得到包括多个相似度数据的相似度值。然后通过步骤S520,根据相似度值从预设特征向量筛选出目标特征向量,本申请的目标特征向量为预设特征向量中,与声纹特征向量最相似的特征向量。
在一些实施例中,参照图6,步骤S500中,根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量,还包括:
S530,计算声纹特征向量与预设特征向量之间的余弦相似度,得到相似度值;
S540,对相似度值进行最大值筛选处理,得到最大相似度值;
S550,根据最大相似度值从预设特征向量筛选出目标特征向量。
本申请实施例的相似度计算具体采用计算余弦相似度的方式。首先通过步骤S530,计算声纹特征向量与预设特征向量之间的余弦相似度,在比较两个特征向量之间的余弦相似度时,特征向量的维度应当相同,然后将得到的多个余弦相似度数据作为相似度值。当相似度值为余弦相似度数据时,余弦相似度的取值越大,说明两个特征向量之间的相似度越高,此时通过步骤S540对相似度值进行最大值筛选,得到最大相似度值。最后通过步骤S550,根据最大相似度值的对应关系,从预设特征向量筛选出目标特征向量,从而得到预设特征向量中,与声纹特征向量最相似的特征向量。在一些其他实施例中,也可以使用欧式相似度、编辑距离等来计算声纹特征向量与预设特征向量之间的相似程度。可以理解的是,根据相似度值筛选出目标特征向量的具体过程与相似度的具体计算方式相关,只要筛选得到的目标特征向量是预设特征向量中,与声纹特征向量最相似的特征向量即可。
在一些实施例中,参照图7,步骤S600中,通过目标特征向量从至少两个语音类别筛选出目标语音类别,包括:
S610,通过目标特征向量对参考语音数据进行匹配处理,得到目标参考语音;
S620,通过目标参考语音对至少两个语音类别进行匹配处理,得到目标语音类别。
由于目标特征向量为从预设特征向量中筛选得到,且预设特征向量为对参考语音数据进行声纹特征提取得到,因此根据目标特征向量的对应关系,通过步骤S610,可以从参考语音数据中匹配得到对应的语音数据,以作为目标参考语音。由于参考语音数据是真实说话人根据语音类别进行录制生成的,因此目标参考语音通过匹配处理后,即可得到对应的语音类别,并作为目标语音类别。得到的目标语音类别与目标用户自身的语音特征相似。当参考语音为从多语音合成模型中得到时,目标语音类别即会与多语音合成模型中的说话人编号对应,后续通过将多语音合成模型中的说话人编号进行选择,则多语音合成模型即会输出语音特征与目标用户相同或相似的合成语音,从而达到个性化语音选择的功能。
参照图8,下面以一个具体实施例来详细描述本申请的语音类别获取方法。本实施例中,通过多语音合成模型来得到对应的参考语音数据。首先通过分别选择多语音合成模型中的说话人编号,将说话人编号分别设置为青年男性说话人编号、中年男性说话人编号、老年男性说话人编号、青年女性说话人编号、中年女性说话人编号、老年女性说话人编号,此时对应的语音类别为青年男性类别、中年男性类别、老年男性类别、青年女性类别、中年女性类别、老年女性类别,对应得到的虚拟音频即为青年男性音频、中年男性音频、老年男性音频、青年女性音频、中年女性音频、老年女性音频。得到虚拟音频信息后,根据虚拟音频信息选择对应的真实说话人,在本实施例中即为青年男性、中年男性、老年男性、青年女性、中年女性、老年女性。然后真实说话人根据第一文本信息进行语音录制,分别生成青年男性录音、中年男性录音、老年男性录音、青年女性录音、中年女性录音、老年女性录音,来作为参考语音数据。
当目标用户使用本申请的语音类别获取方法时,首先根据第一文本信息录制一端原始语音数据,然后分别对原始语音数据和参考语音数据进行声纹特征提取、相似度计算、目标特征向量筛选等步骤,即可得到对应于目标用户的目标语音类别。例如,目标用户为中年男性,通过本申请的语音类别获取方法得到的目标语音类别即为中年男性,通过对应关系,即可以将多语音合成模型的说话人编号设置为中年男性说话人编号,在后续使用多语音合成模型进行语音合成的过程中,合成语音的语音类别即为中年男性类别,合成语音的语音特征与目标用户的语音特征较为相似,从而达到个性化语音合成的效果。
在一些实施例中,参照图9,本申请还提出一种语音类别获取装置,语音类别获取装置包括:
第一语音获取模块,第一语音获取模块用于获取参考语音数据;其中,参考语音数据包括至少两个语音类别,参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
第二语音获取模块,第二语音获取模块用于获取目标用户的原始语音数据;其中,原始语音数据由目标用户根据第一文本信息录制得到;
特征提取模块,特征提取模块用于对参考语音数据进行声纹特征提取,得到预设特征向量,并对原始语音数据进行声纹特征提取处理,得到声纹特征向量;
第一筛选模块,第一筛选模块用于根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量;
第二筛选模块,第二筛选模块用于通过目标特征向量从至少两个语音类别筛选出目标语音类别。
本申请实施例的语音类别获取装置,首先通过获取目标用户录制的原始语音数据和由真实说话人录制的参考语音数据,然后对原始语音数据和参考语音数据分别进行声纹特征提取处理,得到对应的声纹特征向量和预设特征向量,并从预设特征向量中筛选出与声纹特征向量最相似的特征向量,作为目标特征向量。由于目标特征向量与参考语音数据对应,且参考语音数据与语音类别对应,因此通过筛选,可以得到与目标特征向量对应的语音类别,且得到的语音类别与目标用户输入的原始语音数据的语音特征最为相似。在后续的使用过程中,通过选择得到的语音类别对目标用户的输入文本进行个性化的语音合成,即可得到与目标用户的语音特征相似的语音数据,无需用户录制大量的语音训练数据来训练语音合成模型,使用流程更加简单和便捷。
在一些实施例中,第一语音获取模块获取参考语音数据,具体包括:将第二文本信息输入至预设的多语音合成模型,得到虚拟音频信息;其中,虚拟音频信息包括至少两个语音类别,每一语音类别对应一个真实说话人;根据虚拟音频信息,获取真实说话人根据第一文本信息进行录制生成的参考语音数据。
在一些实施例中,语音类别包括:青年男性类别、中年男性类别、老年男性类别、青年女性类别、中年女性类别、老年女性类别。
在一些实施例中,特征提取模块对参考语音数据进行声纹特征提取,得到预设特征向量,具体包括:提取参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量;将语音特征向量输入至训练好的广义端到端特征提取模型中进行声纹特征提取,得到预设特征向量。
在一些实施例中,特征提取模块提取参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量,具体包括:对参考语音数据进行预加重处理,得到高频信息;对高频信息进行分帧处理,得到分帧信息;对分帧信息进行加窗处理,得到优化信息;对优化信息进行快速傅里叶变换,得到频域信息;将频域信息通过梅尔滤波器组进行滤波,得到滤波信息;将滤波信息进行取对数处理,得到局部信息;对局部信息进行离散余弦变换,得到压缩信息;对压缩信息进行动态差分参数提取,得到语音特征向量。
在一些实施例中,第一筛选模块用于根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量,具体包括:对声纹特征向量和预设特征向量进行相似度计算,得到相似度值;根据相似度值从预设特征向量筛选出目标特征向量。
在一些实施例中,第一筛选模块用于根据声纹特征向量对预设特征向量进行筛选处理,得到目标特征向量,还包括:计算声纹特征向量与预设特征向量之间的余弦相似度,得到相似度值;对相似度值进行最大值筛选处理,得到最大相似度值;根据最大相似度值从预设特征向量筛选出目标特征向量。
在一些实施例中,第二筛选模块通过目标特征向量从至少两个语音类别筛选出目标语音类别,具体包括:通过目标特征向量对参考语音数据进行匹配处理,得到目标参考语音;通过目标参考语音对至少两个语音类别进行匹配处理,得到目标语音类别。
本申请实施例还提供了一种电子设备,包括:
至少一个存储器;
至少一个处理器;
至少一个程序;
所述程序被存储在存储器中,处理器执行所述至少一个程序以实现本申请实施上述的语音类别获取方法。该电子设备可以为包括手机、平板电脑、个人数字助理(PersonalDigital Assistant,简称PDA)、车载电脑等任意智能终端。
请参阅图10,图10示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器,可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器,可以采用ROM(Read Only Memory,只读存储器)、静态存储设备、动态存储设备或者RAM(Random Access Memory,随机存取存储器)等形式实现。存储器可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器中,并由处理器来调用执行本申请实施例的语音类别获取方法;
输入/输出接口,用于实现信息输入及输出;
输入/通信接口,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线,在设备的各个组件(例如处理器、存储器、输入/输出接口和输入/通信接口)之间传输信息;
其中处理器、存储器、输入/输出接口和输入/通信接口通过总线实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行上述语音类别获取方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例公开的电子设备和存储介质,首先通过获取目标用户录制的原始语音数据和由真实说话人录制的参考语音数据,然后对原始语音数据和参考语音数据分别进行声纹特征提取处理,得到对应的声纹特征向量和预设特征向量,并从预设特征向量中筛选出与声纹特征向量最相似的特征向量,作为目标特征向量。由于目标特征向量与参考语音数据对应,且参考语音数据与语音类别对应,因此通过筛选,可以得到与目标特征向量对应的语音类别,且得到的语音类别与目标用户输入的原始语音数据的语音特征最为相似。在后续的使用过程中,通过选择得到的语音类别对目标用户的输入文本进行个性化的语音合成,即可得到与目标用户的语音特征相似的语音数据,无需用户录制大量的语音训练数据来训练语音合成模型,使用流程更加简单和便捷。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
上面结合附图对本申请实施例作了详细说明,但是本申请不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本申请宗旨的前提下作出各种变化。此外,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
Claims (10)
1.一种语音类别获取方法,其特征在于,所述方法包括:
获取参考语音数据;其中,所述参考语音数据包括至少两个语音类别,所述参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
获取目标用户的原始语音数据;其中,所述原始语音数据由所述目标用户根据所述第一文本信息录制得到;
对所述参考语音数据进行声纹特征提取,得到预设特征向量,并对所述原始语音数据进行声纹特征提取处理,得到声纹特征向量;
根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量;
通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别。
2.根据权利要求1所述的方法,其特征在于,所述获取参考语音数据,包括:
将第二文本信息输入至预设的多语音合成模型,得到虚拟音频信息;其中,所述虚拟音频信息包括所述至少两个语音类别,每一所述语音类别对应一个所述真实说话人;
根据所述虚拟音频信息,获取所述真实说话人根据所述第一文本信息进行录制生成的所述参考语音数据。
3.根据权利要求1所述的方法,其特征在于,所述对所述参考语音数据进行声纹特征提取,得到预设特征向量,包括:
提取所述参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量;
将所述语音特征向量输入至训练好的广义端到端特征提取模型中进行声纹特征提取,得到所述预设特征向量。
4.根据权利要求3所述的方法,其特征在于,所述提取所述参考语音数据中的梅尔频率倒谱系数特征,得到语音特征向量,包括:
对所述参考语音数据进行预加重处理,得到高频信息;
对所述高频信息进行分帧处理,得到分帧信息;
对所述分帧信息进行加窗处理,得到优化信息;
对所述优化信息进行快速傅里叶变换,得到频域信息;
将所述频域信息通过梅尔滤波器组进行滤波,得到滤波信息;
将所述滤波信息进行取对数处理,得到局部信息;
对所述局部信息进行离散余弦变换,得到压缩信息;
对所述压缩信息进行动态差分参数提取,得到所述语音特征向量。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量,包括:
对所述声纹特征向量和所述预设特征向量进行相似度计算,得到相似度值;
根据所述相似度值从所述预设特征向量筛选出所述目标特征向量。
6.根据权利要求5所述的方法,其特征在于,所述根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量,还包括:
计算所述声纹特征向量与所述预设特征向量之间的余弦相似度,得到所述相似度值;
对所述相似度值进行最大值筛选处理,得到最大相似度值;
根据所述最大相似度值从所述预设特征向量筛选出所述目标特征向量。
7.根据权利要求5所述的方法,其特征在于,所述通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别,包括:
通过所述目标特征向量对所述参考语音数据进行匹配处理,得到目标参考语音;
通过所述目标参考语音对所述至少两个语音类别进行匹配处理,得到所述目标语音类别。
8.一种语音类别获取装置,其特征在于,所述装置包括:
第一语音获取模块,所述第一语音获取模块用于获取参考语音数据;其中,所述参考语音数据包括至少两个语音类别,所述参考语音数据由至少两个真实说话人根据第一文本信息进行录制生成;
第二语音获取模块,所述第二语音获取模块用于获取目标用户的原始语音数据;其中,所述原始语音数据由所述目标用户根据所述第一文本信息录制得到;
特征提取模块,所述特征提取模块用于对所述参考语音数据进行声纹特征提取,得到预设特征向量,并对所述原始语音数据进行声纹特征提取处理,得到声纹特征向量;
第一筛选模块,所述第一筛选模块用于根据所述声纹特征向量对所述预设特征向量进行筛选处理,得到目标特征向量;
第二筛选模块,所述第二筛选模块用于通过所述目标特征向量从所述至少两个语音类别筛选出目标语音类别。
9.一种电子设备,其特征在于,包括:
至少一个存储器;
至少一个处理器;
至少一个程序;
所述程序被存储在所述存储器中,处理器执行所述至少一个程序以实现:
如权利要求1至7任一项所述的方法。
10.一种存储介质,所述存储介质为计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210636416.7A CN114863905A (zh) | 2022-06-07 | 2022-06-07 | 语音类别获取方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210636416.7A CN114863905A (zh) | 2022-06-07 | 2022-06-07 | 语音类别获取方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114863905A true CN114863905A (zh) | 2022-08-05 |
Family
ID=82624677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210636416.7A Pending CN114863905A (zh) | 2022-06-07 | 2022-06-07 | 语音类别获取方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863905A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115273867A (zh) * | 2022-09-22 | 2022-11-01 | 北京金锐世纪高科技有限公司 | 一种对拾取语音的干扰方法、装置和计算机设备 |
CN116682414A (zh) * | 2023-06-06 | 2023-09-01 | 安徽迪科数金科技有限公司 | 一种基于大数据的方言语音识别系统 |
-
2022
- 2022-06-07 CN CN202210636416.7A patent/CN114863905A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115273867A (zh) * | 2022-09-22 | 2022-11-01 | 北京金锐世纪高科技有限公司 | 一种对拾取语音的干扰方法、装置和计算机设备 |
CN116682414A (zh) * | 2023-06-06 | 2023-09-01 | 安徽迪科数金科技有限公司 | 一种基于大数据的方言语音识别系统 |
CN116682414B (zh) * | 2023-06-06 | 2024-01-30 | 安徽迪科数金科技有限公司 | 一种基于大数据的方言语音识别系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109599093B (zh) | 智能质检的关键词检测方法、装置、设备及可读存储介质 | |
CN105976812B (zh) | 一种语音识别方法及其设备 | |
CN101023469B (zh) | 数字滤波方法和装置 | |
CN103765506B (zh) | 使用听觉注意线索进行音调/语调识别的方法 | |
CN110033756B (zh) | 语种识别方法、装置、电子设备及存储介质 | |
CN114863905A (zh) | 语音类别获取方法、装置、电子设备和存储介质 | |
Rammo et al. | Detecting the speaker language using CNN deep learning algorithm | |
CN112233698A (zh) | 人物情绪识别方法、装置、终端设备及存储介质 | |
CN113823323B (zh) | 一种基于卷积神经网络的音频处理方法、装置及相关设备 | |
CN111341319A (zh) | 一种基于局部纹理特征的音频场景识别方法及系统 | |
CN110155075A (zh) | 氛围设备控制方法及相关装置 | |
CN109147816B (zh) | 对音乐进行音量调节的方法及设备 | |
CN109065073A (zh) | 基于深度svm网络模型的语音情感识别方法 | |
CN111292763B (zh) | 重音检测方法及装置、非瞬时性存储介质 | |
CN114121006A (zh) | 虚拟角色的形象输出方法、装置、设备以及存储介质 | |
CN116665669A (zh) | 一种基于人工智能的语音交互方法及系统 | |
CN113327586A (zh) | 一种语音识别方法、装置、电子设备以及存储介质 | |
CN114927122A (zh) | 一种情感语音的合成方法及合成装置 | |
CN113539243A (zh) | 语音分类模型的训练方法、语音分类方法及相关装置 | |
CN111145726B (zh) | 基于深度学习的声场景分类方法、系统、装置及存储介质 | |
Kamble et al. | Emotion recognition for instantaneous Marathi spoken words | |
JP5091202B2 (ja) | サンプルを用いずあらゆる言語を識別可能な識別方法 | |
CN112951256B (zh) | 语音处理方法及装置 | |
CN113593537B (zh) | 基于互补特征学习框架的语音情感识别方法及装置 | |
CN115188363A (zh) | 语音处理方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |