CN115938342A - 语音处理方法、装置、电子设备及存储介质 - Google Patents

语音处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115938342A
CN115938342A CN202211435210.4A CN202211435210A CN115938342A CN 115938342 A CN115938342 A CN 115938342A CN 202211435210 A CN202211435210 A CN 202211435210A CN 115938342 A CN115938342 A CN 115938342A
Authority
CN
China
Prior art keywords
voice
speech
sound
characteristic
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211435210.4A
Other languages
English (en)
Inventor
黄爽
潘青华
张为泰
黄明登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN202211435210.4A priority Critical patent/CN115938342A/zh
Publication of CN115938342A publication Critical patent/CN115938342A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本公开提供了一种语音处理方法、装置、电子设备及存储介质,涉及语音合成技术领域。该方法包括获取第一语音的声音特征;根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。本公开实施例能够使不同语种的语音在转换过程中,保留原始说话人的声音特征,以便听众能够根据不同的声音特征区分不同的说话人。

Description

语音处理方法、装置、电子设备及存储介质
背景技术
随着语音合成技术的快速发展,语音合成技术在人们的生活和工作中扮演着越来越重要的角色。在跨语种实时交流的场景中,相关技术虽然能够实时通过机器翻译,并根据翻译结果合成语音,但是由机器实时合成的声音无法体现出不同说话人的音色特点,从而使听众容易产生听觉疲劳,甚至由于无法区分说话人而对语音传达的内容产生误解。
发明内容
有鉴于此,本公开提供一种语音处理方法、装置、电子设备及存储介质,可以在跨语种实时交流的场景下,对说话人的语音进行转换时,保留说话人的声音特征。
第一方面,提供一种语音处理方法,包括:获取第一语音的声音特征;根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。
在一些实施例中,获取第一语音的声音特征,包括:对第一语音进行语音端点检测,得到第一语音中的语音端点;根据第一语音中的语音端点,将第一语音划分为多个语音片段;根据多个语音片段的转写文本,在多个语音片段中筛选满足预设语音条件的语音片段;对满足预设语音条件的语音片段进行声音特征提取,得到第一语音的声音特征。
在一些实施例中,语音处理方法还包括:获取第一语音的情绪特征;在第一语音的情绪特征发生变化的情况下,将发生变化后的第一语音的情绪特征标注至第一语音的转写文本中。
在一些实施例中,获取第一语音的情绪特征,包括:分别计算多个预设情绪标签与第一语音与之间的相似度;将多个预设情绪标签中,与第一语音之间相似度最高的预设情绪标签,作为第一语音的情绪特征。
在一些实施例中,在获取第一语音的声音特征之后,还包括:在第一语音的情绪特征发生变化的情况下,再次获取第一语音的声音特征。
在一些实施例中,第一语音的情绪特征还包括:多个预设情绪标签与第一语音之间的最高相似度。
在一些实施例中,根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,包括:将第一语音的转写文本输入预训练的语音合成模型,得到第二语音,语音合成模型根据第一语音的声音特征和多个预设情绪标签训练得到,语音合成模型用于合成具有第一语音的声音特征和第一语音的情绪特征的第二语音。
第二方面,提供一种语音处理装置,包括:获取模块,用于获取第一语音的声音特征;转换模块,用于根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。
第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述第一方面的方法。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述第一方面的方法。
本公开实施例提供的语音处理方法,在获取到第一语音的声音特征后,可以根据第一语音的声音特征,将第一语音的转写文本转换为第二语音。其中,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。由此,本公开实施例提供的语音处理方法,能够使不同语种的语音在转换过程中,保留原始说话人的声音特征,以便听众能够根据不同的声音特征区分不同的说话人,从而准确的理解每个说话人在语音中表达的内容,同时能够提升听众的代入感。
附图说明
图1示出本公开实施例中一种语音处理方法的系统架构示意图。
图2示出本公开实施例中一种语音处理方法的流程示意图。
图3示出本公开实施例中一种语音处理装置的结构示意图。
图4示出本公开实施例中一种电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在跨语言交流分享的各种应用场景下(如:翻译机面对面沟通、企业中跨国远程会议、多语种的大会演讲等),往往需要实时语音翻译+语音合成播报的系统,帮助语言不通的双方实现跨语种无障碍交流。
在上述场景下,如果是机器的声音合成播报出来,性别差异、音色不像等,导致交流中会感受到亲切感不够;如果是需要提前录制较长时间的音频训练,使用门槛高、资源消耗高、场景比较受限,只适用于一些重要演讲嘉宾提前拿到语音训练的场景,实际场景下更多是不固定人员的随时交流。而基于翻译结果文本来合成语音播报,未参考说话人的声音特征,在一些实际应用场景中体验感较差。
有鉴于此,本公开提供的方案,在获取第一语音的声音特征后,可以根据第一语音的声音特征,将第一语音的转写文本转换为第二语音。其中,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。由于本公开在将第一语音转换为第二语音的过程中,预先获取了第一语音的声音特征,因此在第二语音的合成过程中可以融入第一语音的声学特征,以便听众能够根据不同声学特征的第二语音区分不同的说话人。
本公开实施例提供了一种语音处理方法、装置、电子设备及存储介质。该语音处理装置具体可以集成在电子设备中,该电子设备可以是终端或服务器等设备。
可以理解的是,本实施例的语音处理方法可以是在终端上执行的,也可以是在服务器上执行,还可以由终端和服务器共同执行的。以上举例不应理解为对本公开的限制。
示例性地,图1示出了可以应用于本公开实施例的语音处理方法或语音处理装置的示例性系统架构示意图。
如图1所示,该系统架构100包括终端101、终端102和服务器103。终端101和终端102均与服务器103之间通过网络连接,比如,通过有线或无线网络连接等,其中,语音处理装置可以集成在服务器中。
服务器103,可以用于:获取第一语音的声音特征;根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。
服务器103可以是单台服务器,也可以是由多个服务器组成的服务器集群或云服务器。例如,服务器可以为多个异构系统之间的互通服务器或者后台服务器,还可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、以及大数据和人工智能平台等基础云计算服务的云服务器等等。如本公开所公开的语音处理方法或装置,其中多个服务器可组成为一区块链,而服务器为区块链上的节点。
终端101和终端102可以向服务器103发送第一语音,或是接收服务器103转换后的第二语音。其中,终端101可以包括手机、智能电视、平板电脑、笔记本电脑、或个人计算机(PC,Personal Computer)等。终端101上还可以设置客户端,该客户端可以是应用程序客户端或者浏览器客户端等等。
此外,上述服务器103执行的语音处理方法,也可以由终端101执行。
本领域技术人员可以知晓,图1中示出的终端和服务器的数量仅仅是示意性的,根据实际需要,可以具有任意数目的终端和服务器,本公开对此不做限制。
下面将结合附图及实施例对本示例实施方式进行详细说明。
首先,本公开实施例中提供了一种语音处理方法,该方法可以由任意具备计算处理能力的电子设备执行。
图2示出本公开实施例中一种语音处理方法的流程示意图,如图2所示,本公开实施例中提供的语音处理方法包括如下步骤。
S201,获取第一语音的声音特征。
需要说明的是,第一语音可以是同一说话人发出的语音,第一语音可以是一段已发出的语音,也可以是正在发出的尚未结束的语音,本公开实施例对此不做限定。
在一些应用场景中,例如,同声传译,第一语音由说话人持续不断的发出,此时,可以实时对第一语音进行获取,以满足同声传译的需求。
需要说明的是,声音特征可以理解为音色,即用于反映与说话人本身属性相关的特征,例如说话人的性别、年龄、方言口音、声音特点等。
在一些实施例中,在对第一语音的声学特征的提取过程中,为了提高提取效率,并提升提取的质量,可以对第一语音进行预处理,剔除其中无法用于声音特征提取的语音片段。
具体地,首先对第一语音进行语音端点检测(Voice Activity Detection,VAD),得到第一语音中的语音端点。随后可根据第一语音中的语音端点,将第一语音划分为多个语音片段。根据多个语音片段的转写文本,可以在多个语音片段中筛选满足预设语音条件的语音片段。最终通过对满足预设语音条件的语音片段进行声音特征提取,即可得到第一语音的声音特征。
示例性地,预设语音条件可以是说话人的语速,即单位时间内转写文本的字符数。对于声音特征的提取,过快或过慢的语速均被认为不合适,因此可以针对单位时间内语音片段的转写文本中的字符数,设定阈值范围,从而将语速过快或过慢的语音片段从多个语音片段中剔除。
在一些实施例中,为了满足声音特征的提取要求,可以通过设置时长阈值,将时长过短的语音片段预先剔除。
在一些实施例中,针对筛选出的筛选满足预设语音条件的语音片段,还可以进行二次筛选,从而进一步剔除其中声音清晰度较差的语音。例如,同时存在多个说话人的语音片段和信噪比低的语音片段。
需要说明的是,用于声音特征提取的语音片段可以是一个,也可以是多个。为了进一步提高声音特征提取的准确性,可以同时选择多个连续的语音片段对声音特征进行提取。
类似地,在一些应用场景中,例如,同声传译,由于第一语音由说话人持续不断的发出,因此可以预设时间范围(例如,语音开始时第1分钟内),从而使本公开可以基于该预设时间范围内的第一语音对其声音特征进行提取,从而可以在预设时间范围内完成对第一语音的声音特征提取。
需要说明的是,对从第一语音或第一语音的语音片段中提取声音特征的方法为本领域技术人员公知,例如,可以通过预训练的神经网络模型进行特征提取,本公开实施例对此不再赘述。
S202,根据第一语音的声音特征,将第一语音的转写文本转换为第二语音。
需要说明的是,本公开实施例中第二语音的声音特征与第一语音的声音特征相同,且由于本公开的应用场景为跨语种的交流中,因此第二语音的语种与第一语音的语种不同。值得注意的是,不同语种可以是不同的语言,也可以是相同语言的不同方言。
在一些实施例中,第一语音和第二语音为不同语言的语音,例如,第一语音为汉语,第二语音为英语。此时,在将第一语音的转写文本转换为第二语音之前,还可对第一语音的转写文本进行翻译,例如,将汉语文本翻译为英语文本,从而合成出英语语言的第二语音。
在另一些实施例中,第一语音和第二语音为相同语言的不同方言,例如汉语中的普通话和粤语,此时可以将第一语音的转写文本直接转换为第二语音。
在一些应用场景中,例如,在企业或其他跨国远程会议场景中。由于会议过程中往往会有一些情绪的表达,比如说话人的语气携带着“正面的表扬、负面的不满”等,此时如果只考虑说话人的声音特征会丢失其中的情绪信息,进而造成一些语义上的误解。又例如,在多语种大会演讲中同声传译场景中,演讲嘉宾往往会使用一些演讲技巧,如讲到高潮时情绪比较激动。但通过机器翻译合成后的声音还是比较平稳,现场听众感受不到这种激动的感受,此外时间长了也会有听觉疲劳,难以专注和有带入感。
有鉴于此,本公开实施例还可以在第二语音中融入第一语音的情绪特征,以便在语音处理的过程中携带说话人的情绪特征。
需要说明的是,情绪特征可以是与说话人的说话状态相关的信息,即说话人在说话时的情绪、情感等,例如,高兴地、愤怒地。
具体地,在获取到第一语音的情绪特征后,可以对第一语音的情绪特征进行实时监测。在第一语音的情绪特征发生变化的情况下,将发生变化后的第一语音的情绪特征标注至第一语音的转写文本中。
在一些实施例中,第一语音的情绪特征可以通过计算预设情绪标签与第一语音之间的相似度进行提取。具体地,在分别计算多个预设情绪标签与第一语音与之间的相似度后,可以将多个预设情绪标签中,与第一语音之间相似度最高的预设情绪标签,作为第一语音的情绪特征。
在一些实施例中,由于第一语音的可能是连续不断且尚未结束的语音,也可能是包含多种情绪表达的语音。因此,在提取第一语音的情绪特征前,可以按照前述方法,利用语音端点检测技术将第一语音划分为多个语音片段,从而分别提取每个语音片段中的情绪特征。
此外,为了在情绪特征中反映情感的程度,例如,一般高兴、非常高兴,还可以将与第一语音之间相似度最高的预设情绪标签,与该相似度最高的预设情绪标签对应的相似度共同作为第一语音的情绪特征,从而丰富第二语音中情感的层次表达。
在一些实施例中,可通过将第一语音的转写文本输入预训练的语音合成模型,从而得到第二语音。其中,语音合成模型是根据第一语音的声音特征和上述用于情绪特征提取的多个预设情绪标签训练得到,从而使本公开实施例中的语音合成模型可以识别第一语音的转写文本中标注的情绪特征,并使合成出的语音携带第一语音的声音特征。
需要说明的是,语音合成模型可以采用相关技术中的声学模型,例如,Tacotron、FastSpeech等,语音合成模型的训练方法为本领域技术人员公知,本公开实施例对此不再赘述。
由此,本公开实施例中的语音合成模型可以合成具有第一语音的声音特征和第一语音的情绪特征的第二语音。
在一些实施例中,由于在不同情绪下说话人的声音特征可能会发生改变,为了更好的还原说话人的声音特征,可以在第一语音的情绪特征发生变化的情况下,再次获取第一语音的声音特征,从而得到特定情绪特征下说话人的声音特征,以便丰富针对同一说话人的声音特征表达。
本公开实施例提供的语音处理方法,在获取到第一语音的声音特征后,可以根据第一语音的声音特征,将第一语音的转写文本转换为第二语音。其中,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。由此,本公开实施例提供的语音处理方法,能够使不同语种的语音在转换过程中,保留原始说话人的声音特征,以便听众能够根据不同的声音特征区分不同的说话人,从而准确的理解每个说话人在语音中表达的内容,同时能够提升听众的代入感。
进一步地,由于本公开实施例还考虑了说话人的情感,因此最终合成的第二语音不仅声音特征和说话人相似、还富有情感信息,能够传达说话人情绪,使用户的听感更加逼真、交流更加亲切。
基于同一发明构思,本公开实施例中还提供了一种语音处理装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图3示出本公开实施例中一种语音处理装置的结构示意图,如图3所示,该语音处理装置300包括:获取模块301、转换模块302。
具体地,获取模块301用于,获取第一语音的声音特征。转换模块302用于,根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。
在一些实施例中,获取模块301还用于,对第一语音进行语音端点检测,得到第一语音中的语音端点;根据第一语音中的语音端点,将第一语音划分为多个语音片段;根据多个语音片段的转写文本,在多个语音片段中筛选满足预设语音条件的语音片段;对满足预设语音条件的语音片段进行声音特征提取,得到第一语音的声音特征。
在一些实施例中,获取模块301还用于,获取第一语音的情绪特征;在第一语音的情绪特征发生变化的情况下,将发生变化后的第一语音的情绪特征标注至第一语音的转写文本中。
在一些实施例中,获取模块301还用于,分别计算多个预设情绪标签与第一语音与之间的相似度;将多个预设情绪标签中,与第一语音之间相似度最高的预设情绪标签,作为第一语音的情绪特征。
在一些实施例中,获取模块301还用于,在第一语音的情绪特征发生变化的情况下,再次获取第一语音的声音特征。
在一些实施例中,第一语音的情绪特征还包括:多个预设情绪标签与第一语音之间的最高相似度。
在一些实施例中,转换模块302还用于,将第一语音的转写文本输入预训练的语音合成模型,得到第二语音,语音合成模型根据第一语音的声音特征和多个预设情绪标签训练得到,语音合成模型用于合成具有第一语音的声音特征和第一语音的情绪特征的第二语音。
需要说明的是,上述实施例提供的语音处理装置在用于语音处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音处理装置与语音处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图4来描述根据本公开的这种实施方式的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本公开实施例的功能和适用范围带来任何限制。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430。
其中,存储单元存储有程序代码,程序代码可以被处理单元410执行,使得处理单元410执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
在一些实施例中,处理单元410可以执行上述方法实施例的如下步骤:获取第一语音的声音特征;根据第一语音的声音特征,将第一语音的转写文本转换为第二语音,第二语音的声音特征与第一语音的声音特征相同,且第二语音的语种与第一语音的语种不同。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备440(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (10)

1.一种语音处理方法,其特征在于,包括:
获取第一语音的声音特征;
根据第一语音的声音特征,将所述第一语音的转写文本转换为第二语音,所述第二语音的声音特征与所述第一语音的声音特征相同,且所述第二语音的语种与所述第一语音的语种不同。
2.根据权利要求1所述的方法,其特征在于,所述获取第一语音的声音特征,包括:
对所述第一语音进行语音端点检测,得到所述第一语音中的语音端点;
根据所述第一语音中的语音端点,将所述第一语音划分为多个语音片段;
根据所述多个语音片段的转写文本,在所述多个语音片段中筛选满足预设语音条件的语音片段;
对所述满足预设语音条件的语音片段进行声音特征提取,得到所述第一语音的声音特征。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述第一语音的情绪特征;
在所述第一语音的情绪特征发生变化的情况下,将发生变化后的所述第一语音的情绪特征标注至所述第一语音的转写文本中。
4.根据权利要求3所述的方法,其特征在于,所述获取所述第一语音的情绪特征,包括:
分别计算多个预设情绪标签与所述第一语音与之间的相似度;
将所述多个预设情绪标签中,与所述第一语音之间相似度最高的预设情绪标签,作为所述第一语音的情绪特征。
5.根据权利要求3所述的方法,其特征在于,在所述获取第一语音的声音特征之后,还包括:
在所述第一语音的情绪特征发生变化的情况下,再次获取所述第一语音的声音特征。
6.根据权利要求4至5任一项所述的方法,其特征在于,所述第一语音的情绪特征还包括:所述多个预设情绪标签与所述第一语音之间的最高相似度。
7.根据权利要求4至5任一项所述的方法,其特征在于,所述根据第一语音的声音特征,将所述第一语音的转写文本转换为第二语音,包括:
将所述第一语音的转写文本输入预训练的语音合成模型,得到所述第二语音,所述语音合成模型根据所述第一语音的声音特征和所述多个预设情绪标签训练得到,所述语音合成模型用于合成具有所述第一语音的声音特征和所述第一语音的情绪特征的第二语音。
8.一种语音处理装置,其特征在于,包括:
获取模块,用于获取第一语音的声音特征;
转换模块,用于根据第一语音的声音特征,将所述第一语音的转写文本转换为第二语音,所述第二语音的声音特征与所述第一语音的声音特征相同,且所述第二语音的语种与所述第一语音的语种不同。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的方法。
CN202211435210.4A 2022-11-16 2022-11-16 语音处理方法、装置、电子设备及存储介质 Pending CN115938342A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211435210.4A CN115938342A (zh) 2022-11-16 2022-11-16 语音处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211435210.4A CN115938342A (zh) 2022-11-16 2022-11-16 语音处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115938342A true CN115938342A (zh) 2023-04-07

Family

ID=86696978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211435210.4A Pending CN115938342A (zh) 2022-11-16 2022-11-16 语音处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115938342A (zh)

Similar Documents

Publication Publication Date Title
CN110517689B (zh) 一种语音数据处理方法、装置及存储介质
CN101872615B (zh) 用于分布式文本到话音合成以及可理解性的系统和方法
CN100424632C (zh) 用于高级交互接口的语义对象同步理解
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
WO2016037440A1 (zh) 视频语音转换方法、装置和服务器
US9412359B2 (en) System and method for cloud-based text-to-speech web services
US9892095B2 (en) Reconciliation of transcripts
CN109256133A (zh) 一种语音交互方法、装置、设备及存储介质
CN109543021B (zh) 一种面向智能机器人的故事数据处理方法及系统
Abushariah et al. Phonetically rich and balanced text and speech corpora for Arabic language
CN112365878A (zh) 语音合成方法、装置、设备及计算机可读存储介质
CN109065019B (zh) 一种面向智能机器人的故事数据处理方法及系统
CN114064943A (zh) 会议管理方法、装置、存储介质及电子设备
WO2021169825A1 (zh) 语音合成方法、装置、设备和存储介质
KR20240024960A (ko) 견고한 다이렉트 스피치-투-스피치 번역
López-Ludeña et al. LSESpeak: A spoken language generator for Deaf people
WO2023197206A1 (en) Personalized and dynamic text to speech voice cloning using incompletely trained text to speech models
CN116312471A (zh) 语音迁移、语音交互方法、装置、电子设备及存储介质
CN109979458A (zh) 基于人工智能的新闻采访稿自动生成方法及相关设备
CN115938342A (zh) 语音处理方法、装置、电子设备及存储介质
Remael et al. From Translation Studies and audiovisual translation to media accessibility
Bharti et al. An approach for audio/text summary generation from webinars/online meetings
CN113066473A (zh) 一种语音合成方法、装置、存储介质及电子设备
CN114514576A (zh) 数据处理方法、装置和存储介质
CN111104118A (zh) 一种基于aiml的自然语言指令执行方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination