CN114708849A - 语音处理方法、装置、计算机设备及计算机可读存储介质 - Google Patents
语音处理方法、装置、计算机设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN114708849A CN114708849A CN202210455923.0A CN202210455923A CN114708849A CN 114708849 A CN114708849 A CN 114708849A CN 202210455923 A CN202210455923 A CN 202210455923A CN 114708849 A CN114708849 A CN 114708849A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- model
- user
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 claims abstract description 302
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 58
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims description 125
- 238000012549 training Methods 0.000 claims description 96
- 238000000605 extraction Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 12
- 230000033764 rhythmic process Effects 0.000 claims description 7
- 238000010367 cloning Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Document Processing Apparatus (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种语音处理方法、装置、计算机设备及计算机可读存储介质,可以预先构建语音合成模型和非平行语音转换模型,通过语音合成模型将目标文本合成为指定音色的中间语音,之后,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率,并且,本申请实施例可以针对用户语音生成对应的平行转换模型,多个用户可以共用一个语音合成模型和非平行语音转换模型,能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
Description
技术领域
本申请实施例涉及信息处理技术领域,尤其涉及一种语音处理方法、装置、计算机设备及计算机可读存储介质。
背景技术
随着信息技术的不断发展,智能手机、平板电脑及笔记本电脑等计算机设备的大量普及应用,计算机设备向着多样化、个性化的方向发展,计算机设备已经可以合成媲美真人的语音,丰富了人机交互的体验,例如,目前常见的语音处理技术包括语音合成、语音转换及语音克隆等技术。声音克隆是指机器从用户提供的语音中提取音色信息,并使用用户音色合成语音的技术。声音克隆是语音合成技术的延伸,传统的语音合成是在固定的说话人上实现文本到语音的转换,而声音克隆则对说话人音色做了进一步指定。目前,声音克隆已有不少实践场景,如语音导航、有声小说等应用中,用户可以通过上传语音来定制自己的语音包,用自己的声音导航或朗读小说,以提升使用应用程序的趣味性。
现有技术中,用户在使用声音克隆技术进行个性化定制时,通常需要提供一段自身的语音以及语音对应的文本,才能够实现声音克隆。然而,在声音克隆的使用场景中,用户提供的录制语音与该语音的朗读内容可能会存在不一致的情况,这就导致在进行声音模型训练前,需要进行清洗矫正操作。因此,导致与朗读内容一致的录制声音的获取比较困难,在进行语音录制时对用户的要求高,影响用户体验。
发明内容
本申请实施例提供一种语音处理方法、装置、计算机设备及计算机可读存储介质,通过将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率;并且,本申请实施例还能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
本申请实施例提供了一种语音处理方法,该语音处理方法包括:
基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
相应的,本申请实施例还提供了一种语音处理装置,该装置包括:
第一处理单元,用于基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
训练单元,用于根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
生成单元,用于将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
第二处理单元,用于通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
在一些实施例中,该装置还包括:
第一获取子单元,用于从目标用户的用户语音中获取语言内容特征和韵律特征;
第一处理子单元,用于基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
在一些实施例中,该装置还包括:
第二获取子单元,用于获取样本语音、样本语音的文本以及样本音色信息;
第一调整单元,用于基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
第二处理子单元,用于继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
在一些实施例中,该装置还包括:
第二调整单元,用于基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
在一些实施例中,该装置还包括:
第三获取子单元,用于获取训练语音对以及所述训练语音对应的预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音,所述训练语音对中的所有语音为所述训练样本语音集中的语音;
第三调整单元,用于基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
在一些实施例中,该装置还包括:
第三处理子单元,用于通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
第四处理子单元,用于通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
第四调整单元,用于基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
在一些实施例中,该装置还包括:
第一生成子单元,用于对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息,并基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
在一些实施例中,该装置还包括:
第二生成子单元,用于对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
在一些实施例中,该装置还包括:
第五处理子单元,用于通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
第六处理子单元,用于通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
在一些实施例中,该装置还包括:
输入子单元,用于将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
相应的,本申请实施例还提供一种计算机设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现语音处理方法任一项的步骤。
相应的,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现语音处理方法任一项的步骤。
本申请实施例提供一种语音处理方法、装置、计算机设备及计算机可读存储介质,通过构建语音合成模型和非平行语音转换模型,通过语音合成模型将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率;并且,本申请实施例可以针对用户语音生成对应的平行转换模型,多个用户可以共用一个语音合成模型和非平行语音转换模型,能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的语音处理系统的场景示意图。
图2为本申请实施例提供的语音处理方法的一种流程示意图。
图3为本申请实施例提供的语音合成模型的训练示意图。
图4为本申请实施例提供的非平行语音转换模型的训练示意图。
图5为本申请实施例提供的非平行语音转换模型的应用示意图。
图6为本申请实施例提供的平行语音转换模型的训练示意图。
图7为本申请实施例提供的语音合成模型的应用示意图。
图8为本申请实施例提供的平行语音转换模型的应用示意图。
图9为本申请实施例提供的语音处理装置的结构示意图。
图10为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种语音处理方法、装置、计算机设备及计算机可读存储介质。具体地,本申请实施例的语音处理方法可以由计算机设备执行,其中,该计算机设备可以为终端。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备,终端还可以包括客户端,该客户端可以是视频应用客户端、音乐应用客户端、游戏应用客户端、携带有游戏程序的浏览器客户端或即时通信客户端等。
请参阅图1,图1为本申请实施例所提供的语音处理系统的场景示意图,包括计算机设备,该系统可以包括至少一个终端,至少一个服务器,以及网络。用户持有的终端可以通过网络连接到不同游戏的服务器。终端是具有计算硬件的任何设备,该计算硬件能够支持和执行与游戏对应的软件产品。另外,终端具有用于感测和获得用户通过在一个或者多个触控显示屏的多个点执行的触摸或者滑动操作的输入的一个或者多个多触敏屏幕。另外,当系统包括多个终端、多个服务器、多个网络时,不同的终端可以通过不同的网络、通过不同的服务器相互连接。网络可以是无线网络或者有线网络,比如无线网络为无线局域网(WLAN)、局域网(LAN)、蜂窝网络、2G网络、3G网络、4G网络、5G网络等。另外,不同的终端之间也可以使用自身的蓝牙网络或者热点网络连接到其他终端或者连接到服务器等。
其中,计算机设备可以从目标用户的用户语音中获取语言内容特征和韵律特征;基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音;根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
需要说明的是,图1所示的语音处理系统的场景示意图仅仅是一个示例,本申请实施例描述的语音处理系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着语音处理系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本发明实施例提供一种语音处理方法、装置、计算机设备及计算机可读存储介质,该语音处理方法可以配合终端使用,如智能手机、平板电脑、笔记本电脑或个人计算机等。以下对该语音处理方法、装置、终端以及存储介质进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
请参阅图2,图2为本申请实施例提供的语音处理方法的一种流程示意图,具体流程可以如下步骤101至步骤104:
101,基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音。
其中,在步骤“基于目标用户的用户语音和指定音色信息进行语音转换处理”之前,方法包括:
从目标用户的用户语音中获取语言内容特征和韵律特征;
所述基于目标用户的用户语音和指定音色信息进行语音转换处理,包括:
基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
在一实施例中,在步骤“基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音”之前,方法可以包括:
获取训练语音对以及所述训练语音对应的预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音,所述训练语音对中的所有语音为所述训练样本语音集中的语音;
基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
可选的,步骤“所述基于所述原始语音、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数”,方法可以包括:
通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
具体的,步骤“所述通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征”,方法可以包括:
对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息,并基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
在另一具体实施例中,步骤“所述通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征”,方法可以包括:
对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
在本申请实施例中,步骤“所述从目标用户的用户语音中获取语言内容特征和韵律特征”,方法可以包括:
通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
为了得到指定音色的指定转换语音,步骤“所述基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音”,方法可以包括:
将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
102,根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型。
具体的,步骤“所述根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型”,方法可以包括:
基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
103,将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音。
为了得到语音合成模型,在步骤“将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音”之前,方法可以包括:
获取样本语音、样本语音的文本以及样本音色信息;
基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
104,通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
为了对本申请实施例提供的语音处理方法进行进一步说明,下面将以语音处理方法在具体实施场景中的应用为例进行说明,具体应用场景如下所述:
(1)本申请实施例设置有一预训练阶段,在预训练阶段中,可以对语音合成模型和非平行语音转换模型进行模型训练。
请参阅图3,图3为语音合成模型的训练示意图,在对语音合成模型进行模型训练时,可以利用数据库中已有的多人语音、及语音对应的文本数据和预设音色训练语音合成模型,在得到训练好的语音合成模型后保存模型以供模型应用阶段使用。具体的,语音合成模型的预训练阶段是将大量文本语音和音色标记数据输入到神经网络模型进行训练,一般基于端到端的深度神经网络模型,具体的模型结构有很多可选,包括但不限于流行的tacotron,fastspeech等。
请参阅图4,图4为非平行语音转换模型的训练示意图,在对非平行语音转换模型进行模型训练时,可以使用已经训练好的语言特征提取模块提取原始语音的语言相关特征表示,使用韵律特征模块提出原始语音的韵律相关特征表示,并将语言相关特征表示和韵律相关特征表示加上音色标记及输出语音输入到非平行语音转换模型进行训练。
其中,语言特征提取模块目的在于根据输入的语音得到与音色无关的语言特征表示,该语言特征提取模块能够将去除语音中与语言内容无关的信息,只提取出语言信息并将其转化为固定长度的向量表示,提取的语言信息应准确反映原语音的说话内容,并且没有错漏。需要说明的是,该语言特征提取模块需要神经网络模型来实现。具体的实现方式可以有多种,一种方式是通过大量语音和文本训练语音识别模型,选择模型的特定隐藏层输出作为语言特征表示,另一种是通过无监督的训练方式,如使用VQVAE模型,将语音压缩量化为若干语音单元的表示,再将这些语音单元还原为原语音。在这一自还原训练过程中,量化单元逐渐学习成为与音色无关的语音单元,这些语音单元即为语言特征表示。实现上还可采取其他方式,不限于以上两种。在一实施例中,语韵律特征提取模块目的在于根据输入的语音得到韵律特征表示,并转化为向量表示。该语韵律特征提取模块是为了保证转换后的语音在韵律风格上与原语音保持一致,使得转换前后的数据除音色外完全平行,便于平行转换模型的建模。在技术上可以有多种实现方式,主要通过信号处理工具和算法来提取,如使用常用的语音特征:基频、能量等,还可以使用语音情绪分类相关特征。
在本申请实施例中,非平行语音转换模型的目的在于根据用户语音提取的语言特征表示、韵律特征表示和指定音色标记生成对应音色及语义内容的转换语音,为训练平行转换模型构造平行语音数据。该非平行语音转换模型要求转换后语音的音色与目标用户的用户语音的音色相似,同时语义内容、韵律等与原语音完全一致。该非平行语音转换模型在与预训练阶段将语言特征提取模型提取的语言特征表示、韵律特征模块得到的韵律特征表示、音色标记及对应的输出语音输入到神经网络模型中进行训练,一般采用深度神经网络模型,具体的模型结构可有多种方式,如卷积网络,循环神经网络,Transformer或它们的任意组合等构建非平行语音转换模型。
(2)本申请实施例设置有平行语音转换模型训练阶段,可以对平行语音转换模型进行模型训练。
请参阅图5,图5为非平行语音转换模型的应用示意图,当确定需要进行声音克隆的目标用户的用户语音后,可以使用预训练阶段中训练好的非平行语音转换模型,将用户语音转换为指定音色语音,并且用户语音的文本内容和韵律信息保持不变,即在进行转换后指定音色语音的文本内容和韵律信息与用户语音的文本内容和韵律信息相同,以构造了平行语音数据。
请参阅图6,图6为平行语音转换模型的训练示意图,在得到指定音色语音后,可以基于指定音色语音和用户语音组成语音对,将指定音色语音和用户语音输入平行语音转换模型中对平行语音转换模型进行模型训练,该平行语音转换模型可以使用简单的神经网络模型,如一层循环神经网络等,或可满足以上条件的其他模型结构。
(3)本申请实施例设置有语音合成模型和平行语音转换模型的模型应用阶段,语音合成模型和平行语音转换模型的具体模型应用如下所述。
请参阅图7,图7为语音合成模型的应用示意图,当检测需要基于用户语音的音色对目标文本进行声音克隆时,该语音合成模型可以将用户选择的任意文本确定为目标文本,基将目标文本转换为指定音色的中间语音。
请参阅图8,图8为平行语音转换模型的应用示意图,该平行语音转换模型可以将指定音色的中间语音转换为用户语音对应的音色,从而得到目标合成语音。
综上所述,本申请实施例提供一种语音处理方法,通过构建语音合成模型、非平行语音转换模型和平行语音转换模型,通过多个用户共享的语音合成模型将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,从而提高语音克隆的操作效率。
请参阅图9,图9为本申请实施例提供的一种语音处理装置的结构示意图,该装置包括:
第一处理单元201,用于基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
训练单元202,用于根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
生成单元203,用于将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
第二处理单元204,用于通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
在一些实施例中,该装置还包括:
第一获取子单元,用于从目标用户的用户语音中获取语言内容特征和韵律特征;
第一处理子单元,用于基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
在一些实施例中,该装置还包括:
第二获取子单元,用于获取样本语音、样本语音的文本以及样本音色信息;
第一调整单元,用于基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
第二处理子单元,用于继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
在一些实施例中,该装置还包括:
第二调整单元,用于基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
在一些实施例中,该装置还包括:
第三获取子单元,用于获取训练语音对以及所述训练语音对应的预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音,所述训练语音对中的所有语音为所述训练样本语音集中的语音;
第三调整单元,用于基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
在一些实施例中,该装置还包括:
第三处理子单元,用于通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
第四处理子单元,用于通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
第四调整单元,用于基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
在一些实施例中,该装置还包括:
第一生成子单元,用于对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息,并基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
在一些实施例中,该装置还包括:
第二生成子单元,用于对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
在一些实施例中,该装置还包括:
第五处理子单元,用于通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
第六处理子单元,用于通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
在一些实施例中,该装置还包括:
输入子单元,用于将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
本申请实施例提供一种语音处理装置,通过第一处理单元201基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;训练单元202根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;生成单元203将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;第二处理单元204通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。本申请实施例通过构建语音合成模型、非平行语音转换模型和平行语音转换模型,通过语音合成模型将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率;并且,本申请实施例可以针对用户语音生成对应的平行转换模型,多个用户可以共用一个非平行语音转换模型,能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
相应的,本申请实施例还提供一种计算机设备,该计算机设备可以为终端或者服务器,该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、游戏机、个人计算机(PC,Personal Computer)、个人数字助理(Personal Digital Assistant,PDA)等终端设备。如图10所示,图10为本申请实施例提供的计算机设备的结构示意图。该计算机设备300包括有一个或者一个以上处理核心的处理器301、有一个或一个以上计算机可读存储介质的存储器302及存储在存储器302上并可在处理器上运行的计算机程序。其中,处理器301与存储器302电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器301是计算机设备300的控制中心,利用各种接口和线路连接整个计算机设备300的各个部分,通过运行或加载存储在存储器302内的软件程序和/或模块,以及调用存储在存储器302内的数据,执行计算机设备300的各种功能和处理数据,从而对计算机设备300进行整体监控。
在本申请实施例中,计算机设备300中的处理器301会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器302中,并由处理器301来运行存储在存储器302中的应用程序,从而实现各种功能:
基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
在一实施例中,在基于目标用户的用户语音和指定音色信息进行语音转换处理之前,还包括:
从目标用户的用户语音中获取语言内容特征和韵律特征;
所述基于目标用户的用户语音和指定音色信息进行语音转换处理,包括:
基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
在一实施例中,在将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音之前,还包括:
获取样本语音、样本语音的文本以及样本音色信息;
基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
在一实施例中,所述根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型,包括:
基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
在一实施例中,在基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音之前,还包括:
获取训练语音对以及预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音;
基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
在一实施例中,所述基于所述原始语音、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数,包括:
通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
在一实施例中,所述通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征,包括:
对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息;
基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
在一实施例中,所述通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征,包括:
对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
在一实施例中,所述从目标用户的用户语音中获取语言内容特征和韵律特征,包括:
通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
在一实施例中,所述基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,包括:
将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
可选的,如图10所示,计算机设备300还包括:触控显示屏303、射频电路304、音频电路305、输入单元306以及电源307。其中,处理器301分别与触控显示屏303、射频电路304、音频电路305、输入单元306以及电源307电性连接。本领域技术人员可以理解,图10中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏303可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏303可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器301,并能接收处理器301发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器301以确定触摸事件的类型,随后处理器301根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏303而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏303也可以作为输入单元306的一部分实现输入功能。
在本申请实施例中,通过处理器301执行应用程序在触控显示屏303上生成图形界面。该触控显示屏303用于呈现图形界面以及接收用户作用于图形界面产生的操作指令。
射频电路304可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路305可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路305可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路305接收后转换为音频数据,再将音频数据输出处理器301处理后,经射频电路304以发送给比如另一计算机设备,或者将音频数据输出至存储器302以便进一步处理。音频电路305还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元306可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源307用于给计算机设备300的各个部件供电。可选的,电源307可以通过电源管理系统与处理器301逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源307还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图10中未示出,计算机设备300还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
由上可知,本实施例提供的计算机设备,通过基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。本申请实施例通过构建语音合成模型、非平行语音转换模型和平行语音转换模型,通过语音合成模型将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率,并且,本申请实施例可以针对用户语音生成对应的平行转换模型,多个用户可以共用一个非平行语音转换模型,能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种语音处理方法中的步骤。例如,该计算机程序可以执行如下步骤:
基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
在一实施例中,在基于目标用户的用户语音和指定音色信息进行语音转换处理之前,还包括:
从目标用户的用户语音中获取语言内容特征和韵律特征;
所述基于目标用户的用户语音和指定音色信息进行语音转换处理,包括:
基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
在一实施例中,在将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音之前,还包括:
获取样本语音、样本语音的文本以及样本音色信息;
基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
在一实施例中,所述根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型,包括:
基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
在一实施例中,在基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音之前,还包括:
获取训练语音对以及预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音;
基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
在一实施例中,所述基于所述原始语音、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数,包括:
通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
在一实施例中,所述通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征,包括:
对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息;
基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
在一实施例中,所述通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征,包括:
对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
在一实施例中,所述从目标用户的用户语音中获取语言内容特征和韵律特征,包括:
通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
在一实施例中,所述基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,包括:
将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种语音处理方法中的步骤,本申请实施例通过基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。本申请实施例通过构建语音合成模型、非平行语音转换模型和平行语音转换模型,通过语音合成模型将目标文本合成为指定音色的中间语音,在获取目标用户的用户语音后,通过平行语音转换模型直接将中间语音的指定音色转换为用户语音的音色以得到目标合成语音,从而能够快速进行语音克隆操作,使得用户在进行语音克隆时的操作简单,能够有效提高语音克隆的操作效率,并且,本申请实施例可以针对用户语音生成对应的平行转换模型,多个用户可以共用一个非平行语音转换模型,能够简化语音转换模型结构,使语音转换模型轻量化,从而降低语音转换模型对计算机设备的存储消耗。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上对本申请实施例所提供的一种语音处理方法、装置、计算机设备及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的技术方案及其核心思想;本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例的技术方案的范围。
Claims (13)
1.一种语音处理方法,其特征在于,包括:
基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
2.根据权利要求1所述的语音处理方法,其特征在于,在基于目标用户的用户语音和指定音色信息进行语音转换处理之前,还包括:
从目标用户的用户语音中获取语言内容特征和韵律特征;
所述基于目标用户的用户语音和指定音色信息进行语音转换处理,包括:
基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音。
3.根据权利要求1所述的语音处理方法,其特征在于,在将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音之前,还包括:
获取样本语音、样本语音的文本以及样本音色信息;
基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音模型的模型参数,得到调整后的预设语音模型;
继续获取训练样本语音集中的下一样本语音、下一样本语音的文本以及样本音色信息,执行所述基于所述样本语音、所述样本语音的文本以及所述样本音色信息调整预设语音合成模型的模型参数的步骤,直至所述调整后的语音模型的训练情况满足模型训练结束条件,得到训练好的预设语音模型,作为语音合成模型。
4.根据权利要求1所述的语音处理方法,其特征在于,所述根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型,包括:
基于所述用户语音和所述指定转换语音调整平行语音转换模型的模型参数,直至满足平行语音转换模型的模型训练结束条件,得到训练好的平行语音转换模型,作为目标语音转换模型。
5.根据权利要求2所述的语音处理方法,其特征在于,在基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音之前,还包括:
获取训练语音对以及所述训练语音对应的预设音色信息,其中,所述训练语音对包括原始语音和输出语音,所述原始语音和所述输出语音为相同语音,所述训练语音对中的所有语音为训练样本语音集中的语音;
基于所述原始语音、所述输出语音和所述预设音色信息调整非平行语音转换模型的模型参数,直到满足所述非平行语音转换模型的模型训练结束条件,得到训练好的非平行语音转换模型,作为目标非平行语音转换模型。
6.根据权利要求5所述的语音处理方法,其特征在于,所述基于所述原始语音、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数,包括:
通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征;
通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征;
基于所述原始语音的语言内容特征、所述原始语音的韵律特征、所述预设音色信息和所述输出语音调整非平行语音转换模型的模型参数。
7.根据权利要求5所述的语音处理方法,其特征在于,所述通过所述非平行语音转换模型的语言特征处理器对所述原始语音进行语言内容提取处理,得到原始语音的语言内容特征,包括:
对所述原始语音进行语言信息筛选处理,确定所述原始语音对应的语言信息,并基于所述语言信息生成第一指定长度向量,将所述第一指定长度向量作为语言内容特征。
8.根据权利要求5所述的语音处理方法,其特征在于,所述通过所述非平行语音转换模型的韵律特征处理器对所述原始语音进行韵律提取处理,得到原始语音的韵律特征,包括:
对所述原始语音进行韵律信息筛选处理,确定所述原始语音对应的韵律信息,并基于所述韵律信息生成第二指定长度向量,将所述第二指定长度向量作为韵律特征。
9.根据权利要求5所述的语音处理方法,其特征在于,所述从目标用户的用户语音中获取语言内容特征和韵律特征,包括:
通过所述目标非平行语音转换模型的语言特征处理器对所述用户语音进行语言内容提取处理,得到用户语音的语言内容特征;
通过所述目标非平行语音转换模型的韵律特征处理器对所述用户语音进行韵律提取处理,得到用户语音的韵律特征。
10.根据权利要求9所述的语音处理方法,其特征在于,所述基于所述语言内容特征、所述韵律特征和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,包括:
将所述用户语音的语言内容特征、所述用户语音的韵律特征、所述指定音色信息输入所述目标非平行语音转换模型,生成指定音色的指定转换语音。
11.一种语音处理装置,其特征在于,包括:
第一处理单元,用于基于目标用户的用户语音和指定音色信息进行语音转换处理,得到指定音色的指定转换语音,其中,所述指定音色信息为从多个预设音色信息中确定的音色信息,所述指定转换语音为具有所述指定音色的用户语音;
训练单元,用于根据所述用户语音和所述指定转换语音对语音转换模型进行训练,得到目标语音转换模型;
生成单元,用于将待合成语音的目标文本以及所述指定音色信息输入语音合成模型,生成指定音色的中间语音;
第二处理单元,用于通过所述目标语音转换模型对所述中间语音进行语音转换处理,生成与所述目标用户的音色匹配的目标合成语音。
12.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,执行如权利要求1至10任一项所述的语音处理方法中的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如权利要求1至10任一项所述的语音处理方法中的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210455923.0A CN114708849A (zh) | 2022-04-27 | 2022-04-27 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
PCT/CN2022/119157 WO2023206928A1 (zh) | 2022-04-27 | 2022-09-15 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210455923.0A CN114708849A (zh) | 2022-04-27 | 2022-04-27 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114708849A true CN114708849A (zh) | 2022-07-05 |
Family
ID=82176836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210455923.0A Pending CN114708849A (zh) | 2022-04-27 | 2022-04-27 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114708849A (zh) |
WO (1) | WO2023206928A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023206928A1 (zh) * | 2022-04-27 | 2023-11-02 | 网易(杭州)网络有限公司 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136691B (zh) * | 2019-05-28 | 2021-09-28 | 广州多益网络股份有限公司 | 一种语音合成模型训练方法、装置、电子设备及存储介质 |
US11514888B2 (en) * | 2020-08-13 | 2022-11-29 | Google Llc | Two-level speech prosody transfer |
CN111968617B (zh) * | 2020-08-25 | 2024-03-15 | 云知声智能科技股份有限公司 | 一种非平行数据的语音转换方法及系统 |
CN112309366B (zh) * | 2020-11-03 | 2022-06-14 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、存储介质及电子设备 |
CN112820268A (zh) * | 2020-12-29 | 2021-05-18 | 深圳市优必选科技股份有限公司 | 个性化语音转换训练方法、装置、计算机设备及存储介质 |
CN114708849A (zh) * | 2022-04-27 | 2022-07-05 | 网易(杭州)网络有限公司 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
-
2022
- 2022-04-27 CN CN202210455923.0A patent/CN114708849A/zh active Pending
- 2022-09-15 WO PCT/CN2022/119157 patent/WO2023206928A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023206928A1 (zh) * | 2022-04-27 | 2023-11-02 | 网易(杭州)网络有限公司 | 语音处理方法、装置、计算机设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023206928A1 (zh) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
CN110444191B (zh) | 一种韵律层级标注的方法、模型训练的方法及装置 | |
CN110853618B (zh) | 一种语种识别的方法、模型训练的方法、装置及设备 | |
US20220122580A1 (en) | Intent recognition and emotional text-to-speech learning | |
WO2021036644A1 (zh) | 一种基于人工智能的语音驱动动画方法和装置 | |
CN112863547B (zh) | 虚拟资源转移处理方法、装置、存储介质及计算机设备 | |
WO2020073944A1 (zh) | 语音合成方法及设备 | |
WO2020253509A1 (zh) | 面向情景及情感的中文语音合成方法、装置及存储介质 | |
CN111261144A (zh) | 一种语音识别的方法、装置、终端以及存储介质 | |
CN108346427A (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN110838286A (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN107657017A (zh) | 用于提供语音服务的方法和装置 | |
CN108922525B (zh) | 语音处理方法、装置、存储介质及电子设备 | |
CN113450759A (zh) | 语音生成方法、装置、电子设备以及存储介质 | |
CN112309365A (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN110444190A (zh) | 语音处理方法、装置、终端设备及存储介质 | |
WO2022057759A1 (zh) | 一种语音转换的方法及相关设备 | |
CN115798459B (zh) | 音频处理方法、装置、存储介质及电子设备 | |
CN110781329A (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN113033245A (zh) | 一种功能调节方法、装置、存储介质及电子设备 | |
CN116597858A (zh) | 语音口型匹配方法、装置、存储介质及电子设备 | |
CN113205569B (zh) | 图像绘制方法及装置、计算机可读介质和电子设备 | |
CN114708849A (zh) | 语音处理方法、装置、计算机设备及计算机可读存储介质 | |
CN115118820A (zh) | 一种通话处理方法、装置、计算机设备及存储介质 | |
CN116092466A (zh) | 语音模型的处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |