CN112382287A - 语音交互方法、装置、电子设备和存储介质 - Google Patents
语音交互方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112382287A CN112382287A CN202011254837.0A CN202011254837A CN112382287A CN 112382287 A CN112382287 A CN 112382287A CN 202011254837 A CN202011254837 A CN 202011254837A CN 112382287 A CN112382287 A CN 112382287A
- Authority
- CN
- China
- Prior art keywords
- voice
- emotion
- interaction
- text
- tone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
本申请公开了语音交互方法、装置、电子设备和存储介质,涉及自然语言处理、语音技术和深度学习领域。具体实现方案为:获取用户语音,根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文,获取交互下文对应的情感类型,根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音,采用回复语音进行语音交互。本申请中在对交互下文进行语音合成时,将情感和设定音色融入交互下文,获取了情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
Description
技术领域
本申请涉及计算机技术领域,具体涉及自然语言处理、语音技术和深度学习领域,尤其是涉及语音交互方法、装置、电子设备和存储介质。
背景技术
随着语音交互被越来越多用户所接受,智能助手在用户日常生活中扮演陪伴的角色越来越重要。在语音交互的过程中,基于语音合成技术将文字信息转换为可理解的、高拟人化的交互语音。
虽然人工智能的不断迅速发展,自然语言交互的效率和精准度、智能性也在不断前进,但现有的产品的对话依旧固定机械化,缺少情感,只能按照预置的固定策略来回答用户,不能满足用户对人机交互的个性化需求,语音交互效果较差。
发明内容
本申请提供了一种用于将情感和音色进行语音合成,以实现个性化语音生成,以提高交互效果的语音交互方法、装置、电子设备和存储介质。
根据本申请的一方面,提供了一种语音交互方法,包括:
获取用户语音;
根据对用户语音识别得到的交互上文,从语料库中确定用于回复所述交互上文的交互下文;
获取所述交互下文对应的情感类型;
根据所述情感类型和设定音色,对所述交互下文进行语音合成,以得到回复语音;
采用所述回复语音进行语音交互。
根据本申请的另一方面,提供了一种语音交互装置,包括:
第一获取模块,用于获取用户语音;
确定模块,用于根据对用户语音识别得到的交互上文,从语料库中确定用于回复所述交互上文的交互下文;
第二获取模块,用于获取所述交互下文对应的情感类型;
合成模块,用于根据所述情感类型和设定音色,对所述交互下文进行语音合成,以得到回复语音;
交互模块,用于采用所述回复语音进行语音交互。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的语音交互方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面所述的语音交互方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种语音交互方法的流程示意图;
图2为本申请实施例所提供的另一种语音交互方法的流程示意图;
图3为本申请实施例的语音交互模型的结构示意图;
图4为本申请实施例提供的语音交互模型的训练示意图;
图5为本申请实施例提供的一种语音交互装置的结构示意图;
图6是用来实现本申请实施例的语音交互方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的语音交互方法、装置、电子设备和存储介质。
图1为本申请实施例所提供的一种语音交互方法的流程示意图。
如图1所示,该方法包括以下步骤:
步骤101,获取用户语音。
本实施例的执行主体为语音交互装置,该装置可设置于电子设备中,电子设备可以为语音交互助手,例如,智能机器人,本实施例中不进行限定。
在本申请的一个实施例中,用户语音可以是电子设备通过拾音器采集到用户实时输入的语音,进而对语音进行分析和合成,以得到用户语音。
在本申请的另一个实施例中,可以是外部设备采集到用户语音后通过网络发送至电子设备的语音等。在一个实施例中,为了减少语音交互对电子设备的损耗,本申请实施例的执行主体还可以是云端服务器,也就是说,电子设备接收用户输入的语音信息,并将语音信息发送至云端服务器,云端服务器可根据获取到的语音信息生成用户语音,并将用户语音返回给电子设备。其中,电子设备为具有语音功能的终端设备。
步骤102,根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文。
本实施例的一个示例中,可根据语音识别模型,对用户语音进行识别,以识别得到用户语音得到交互上文,例如,识别得到的交互上文为:我不小心把花瓶打碎了,怎么办啊?进而,根据识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文,例如,确定的交互下文为:没事的,宝宝,小心不要划破手指。
作为一种可能的实现方式,可根据交互上文,利用距离算法,例如,欧式距离,从语料库中匹配得到回复交互上文的交互下文。
步骤103,获取交互下文对应的情感类型。
在本申请实施例的一种可能的实现方式中,对交互下文进行分析,确定交互下文中是否包含指示情感的情感关键字,根据情感关键词确定情感类型。其中,情感关键词可以是预设存储于关键词数据库内,将交互下文对应的文本进行词语划分后,可以在关键词数据库中进行查找,如果查找到,则根据查找到的情感关键字对应的情感类型,确定交互下文对应的情感类型。
在本申请实施例的另一种可能的实现方式中,采用预先训练得到的情感分类模型进行识别,该情感分类模型可以是基于自然语言处理模型(Bidirectional EncoderRepresentations from Transformers,BERT)或者百度ERNIE模型(Enhanced LanguageRepresentation with Informative Entities,ERNIE),具体来说,将交互下文输入训练得到的情感分类模型,输出和交互下文对应的情感标签,例如,交互下文为“今天处女座的运势相当好”,则确定的情感标签为“开心”;交互下文为“今天上证指数2879点,跌幅8%”,则确定的情感标签为“难过”,此外,情感标签还可以为:平静、激动等,本实施例中不一一列举。进而,根据情感标签,确定情感类型,例如,情感标签为难过,则确定情感类型为伤心消极类型,提高了交互下文情感类型确定的准确性。
其中,本实施例中的情感分类模型在进行训练时,可以通过深度学习的方式进行训练,相比于其他机器学习方法,深度学习在大数据集上的表现更好。
步骤104,根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音。
其中,设定音色,为在进行语音交互的过程中,回复语音需要采用的音色。例如,交互的电子设备是给宝宝使用的,则可以使用妈妈的音色作为设定音色,以和宝宝进行语音交互,以提高交互的效果。
在本申请实施例中,为了提高交互效果,在合成的回复语音中加入情感类型,即将情感类型和设定音色,融合至交互下文中,以得到回复语音,从而回复语音具备了设定音色的特征,还包含了情感,提高了交互语音的合成效果。例如,交互下文为:宝宝好棒呀,可以自己穿衣服了。该交互下文对应的情感类型为愉快,即利用妈妈的音色,采用愉快的情感合成得到回复语音,当宝宝听到采用妈妈声音并愉快的回复“宝宝好棒啊,可以自己穿衣物了”时,会乐意继续进行语音交互,提高了交互效果。
步骤105,采用回复语音进行语音交互。
本实施例中,采用融入了情感和音色的回复语音进行语音交互,提高了交互的积极性,从而提高了交互效果。
本申请实施例的语音交互方法中,获取用户语音,根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文,获取交互下文对应的情感类型,根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音,采用回复语音进行语音交互。本申请中在对交互下文进行语音合成时,将情感和设定音色融入,获取了个性化合成的、情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
基于上一实施例,本实施例提供了另一种语音交互方法,图2为本申请实施例所提供的另一种语音交互方法的流程示意图,如图2所示,上述步骤104包含以下步骤:
步骤1041,将情感类型对应语音的第一梅尔谱mel特征和设定音色对应语音的第二mel特征、以及交互下文输入经过训练的语音合成模型,以得到回复语音。
其中,梅尔谱mel特征是梅尔测度特征谱中的特征,梅尔测度特征谱包括对数梅尔能量谱(log-mel energies)和梅尔谱图MFS,其中,梅尔谱图指基于梅尔滤波器下采样得到的梅尔谱图(Mel Frequency Spectrogram,MFS),作为一种可能的实现方式,可对获取的音频进行分帧切分,得到多个语音帧,根据语音帧生成语谱图,进而根据梅尔滤波器进行滤波得到梅尔谱图,即梅尔谱图中包含对应的mel的特征,本实施例中的mel特征用于对语音合成模型进行训练,以使得训练得到的语音合成模型可以基于获取到的mel特征和对应的文本进行语音合成。
本申请实施例中,为了便于区分,获取情感类型的声学特征,其中,声学特征是根据属于情感类型的语音进行特征提取得到的,提取情感类型的声学特征,即mel特征,称为第一mel特征。并获取设定音色对应语音,提取设定音色对应语音的音频特征,即mel特征,称为第二mel特征。其中,作为一种可能的实现方式,设定音色对应语音可以是设定音色的用户通过拾音设备,例如手机录制的一段自己的声音;作为另一种可能的实现方式,设定音色对应语音也可以是系统根据获取到的交互上文对应的语音,识别得到交互上文对应的语音的年龄类型,例如,儿童、成年人或老人,并根据识别得到的年龄类型确定对应的指定音色,并获取指定的音色对应的语音;作为第三种可能的实现方式,设定音色对应的语音还可以是系统随机指定的特定音色,并获取该特定音色对应的语音通过mel特征提取模型,例如Tacotron模型提取其音色信息得到对应的第二mel特征。进而,将交互下文进行向量化表示得到交互下文的向量,将提取得到的第一mel特征、第二mel特征和交互下文的向量输入经过训练的语音合成模型,以得到回复语音,实现了将情感和设定音色融入交互下文中,获取了个性化合成的情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
作为一种可能的实现,本实施例中的语音合成模型包含风格编码器、音色编码器、文本编码器、解码器和声码器,图3为本申请实施例的语音交互模型的结构示意图。
如图3所示,风格编码器,用于对输入的情感类型对应语音的第一mel特征进行编码,以得到风格编码,风格编码指示了需要采用的情感类型;音色编码器,用于对输入的设定音色对应语音的第二mel特征进行编码,以得到音色编码,音色编码指示了需要采用的特定音色;文本编码器,用于输入交互下文以得到文本编码;进而,将文本编码、风格编码和音色编码输入解码器,解码器用于对输入的文本编码、风格编码和音色编码融合以得到目标mel特征;将获取得到的目标mel特征输入声码器,以使得声码器,根据输入目标mel特征以得到回复语音,实现了通过设置语音合成模型的不同模块,以获取情感的声学特征、音色的声学特征和文本的特征,进而将情感和设定音色融入交互下文中,获取了个性化合成的情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
为了实现上述实施例,语音合成模型,需要预先进行训练,以使得语音合成模型可以实现对设定音色和情感类型,与交互下文进行语音合成,以得到利用设定音色和情感类型的回复语音。本实施例中的语音合成模型在进行训练时,可以通过深度学习的方式进行训练,相比于其他机器学习方法,深度学习在大数据集上的表现更好。
本实施例中,针对语音合成模型的训练过程进行具体说明。
本实施例中,语音合成模型可分别采用第一训练样本和第二训练样本训练得到。其中,第一训练样本包括采用至少一种音色录制的多种情感类型的第一语音,以及第一语音对应的文本。例如,如图4所示,获取多个通用发音人的通用语音信息,通用语音信息可以是利用至少一种音色录制的,根据获取的通用发音人的通用语音信息,进行识别,以得到多种情感标签,例如,开心、难过、安慰和平静等,并根据情感标签,确定情感类型,如,愉悦类型、消极类型、体贴类型,积极类型等。并保存至多情感和个性化音库中,在对语音合成模型进行训练时,根据多情感和个性化音库的多情感风格信息,和对应的语音的文本生成语音合成模型的第一训练样本。而第一训练样本,用于对语音合成模型进行第一阶段训练,第一阶段训练训练得到的语音合成模型适用于第一训练样本中包含的至少一种音色录制的多种情感类型的合成,也就是说第一阶段训练得到的语音合成模型用于对第一训练样本对应的音色、情感和对应的文本进行合成。
进一步,为了提高语音合成的针对性和语音合成的效果,采用第二训练样本对语音合成模型进行训练,而第二训练样本是从多情感和个性化音库中获取得到的,多情感和个性化音库中存储有基于获取到的特定用户的语音信息,根据特定用户的语音信息,生成个性化的音色信息,根据个性化的音色信息,对应的语音的文本,和情感类型,以生成第二训练样本,其中,第二训练样本包括采用设定音色录制的第二语音,以及第二语音对应的文本和情感类型。作为一种可能的实现方式,设定音色对应的第二语音可以是用户通过拾音设备录制并上传的语音,例如,用手机录制的一段自己的声音,以用于提取用户指定的设定音色;作为另一种可能的实现方式,设定音色对应的第二语音还可以是系统从语音库中随机指定或者是系统默认的特定音色对应的第二语音,以用于提取用户指定的设定音色,以增加设定音色设置的灵活性。第二训练样本,用于对语音合成模型进行第二阶段训练,语音合成模型通过第二阶段的训练,实现了对通过第一阶段训练得到的语音合成模型进行调整,以使得训练得到语音合成模型可合成具有用户设定音色的多情感回复语音,实现了个性化的语音设置,提高了针对特定音色和情感的语音合成的效果。
为了实现上述实施例,本申请还提供了一种语音交互装置。
图5为本申请实施例提供的一种语音交互装置的结构示意图。
如图5所示,包括:第一获取模块51、确定模块52、第二获取模块53、合成模块54和交互模块55。
第一获取模块51,用于获取用户语音。
确定模块52,用于根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文。
第二获取模块53,用于获取交互下文对应的情感类型。
合成模块54,用于根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音。
交互模块55,用于采用回复语音进行语音交互。
进一步,在本申请实施例的一种可能的实现方式中,上述合成模块54,用于:将情感类型对应语音的第一mel特征和设定音色对应语音的第二mel特征、以及交互下文输入经过训练的语音合成模型,以得到回复语音。
在本申请实施例的一种可能的实现方式中,语音合成模型,包括:
风格编码器,用于输入第一mel特征以得到风格编码;
音色编码器,用于输入第二mel特征以得到音色编码;
文本编码器,用于输入交互下文以得到文本编码;
解码器,用于输入文本编码、风格编码和音色编码以得到目标mel特征;
声码器,用于输入目标mel特征以得到所述回复语音。
在本申请实施例的一种可能的实现方式中,语音合成模型分别采用第一训练样本和第二训练样本训练得到;其中,第一训练样本,用于对所述语音合成模型进行第一阶段训练;第一训练样本包括采用至少一种音色录制的多种情感类型的第一语音,以及第一语音对应的文本;第二训练样本,用于对语音合成模型进行第二阶段训练;第二训练样本包括采用设定音色录制的第二语音,以及第二语音对应的文本和情感类型。
在本申请实施例的一种可能的实现方式中,上述第二获取模块53,具体用于:
查询交互下文对应的情感标签;其中,情感标签是采用情感分类模型对交互下文进行分类得到的;根据情感标签,确定情感类型。
需要说明的是,前述对语音交互方法实施例的解释说明,也适用于本实施例的语音交互装置,原理相同,此处不再赘述。
本申请实施例的语音交互装置中,获取用户语音,根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文,获取交互下文对应的情感类型,根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音,采用回复语音进行语音交互。本申请中在对交互下文进行语音合成时,将情感和设定音色融入,获取了个性化合成的情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
为了实现上述实施例,本实施例提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行前述方法实施例所述的语音交互方法。
为了实现上述实施例,本实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行前述方法实施例所述的语音交互方法。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的语音交互方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音交互方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音交互方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音交互方法对应的程序指令/模块(例如,附图5所示的第一获取模块51、确定模块52、第二获取模块53、合成模块54和交互模块55)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音交互方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音交互方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至语音交互方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语音交互方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与语音交互方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,获取用户语音,根据对用户语音识别得到的交互上文,从语料库中确定用于回复交互上文的交互下文,获取交互下文对应的情感类型,根据情感类型和设定音色,对交互下文进行语音合成,以得到回复语音,采用回复语音进行语音交互。本申请中在对交互下文进行语音合成时,将情感和设定音色融入,获取了个性化合成的情感丰富的特定音色的回复语音,提高了语音交互的效果和个性化需求。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种语音交互方法,包括:
获取用户语音;
根据对用户语音识别得到的交互上文,从语料库中确定用于回复所述交互上文的交互下文;
获取所述交互下文对应的情感类型;
根据所述情感类型和设定音色,对所述交互下文进行语音合成,以得到回复语音;
采用所述回复语音进行语音交互。
2.根据权利要求1所述的语音交互方法,其中,所述根据所述情感类型,和设定音色,对所述交互下文进行语音合成,以得到回复语音,包括:
将所述情感类型对应语音的第一梅尔谱mel特征和所述设定音色对应语音的第二梅尔谱mel特征、以及所述交互下文输入经过训练的语音合成模型,以得到所述回复语音。
3.根据权利要求2所述的语音交互方法,其中,所述语音合成模型,包括:
风格编码器,用于输入所述第一mel特征以得到风格编码;
音色编码器,用于输入所述第二mel特征以得到音色编码;
文本编码器,用于输入所述交互下文以得到文本编码;
解码器,用于输入所述文本编码、所述风格编码和所述音色编码以得到目标mel特征;
声码器,用于输入所述目标mel特征以得到所述回复语音。
4.根据权利要求2所述的语音交互方法,其中,所述语音合成模型分别采用第一训练样本和第二训练样本训练得到;
其中,所述第一训练样本,用于对所述语音合成模型进行第一阶段训练;所述第一训练样本包括采用至少一种音色录制的多种情感类型的第一语音,以及所述第一语音对应的文本;
所述第二训练样本,用于对所述语音合成模型进行第二阶段训练;所述第二训练样本包括采用所述设定音色录制的第二语音,以及所述第二语音对应的文本和情感类型。
5.根据权利要求1-4任一项所述的方法,其中,所述获取所述交互下文对应的情感类型,包括:
查询所述交互下文对应的情感标签;其中,所述情感标签是采用情感分类模型对所述交互下文进行分类得到的;
根据所述情感标签,确定所述情感类型。
6.一种语音交互装置,包括:
第一获取模块,用于获取用户语音;
确定模块,用于根据对用户语音识别得到的交互上文,从语料库中确定用于回复所述交互上文的交互下文;
第二获取模块,用于获取所述交互下文对应的情感类型;
合成模块,用于根据所述情感类型和设定音色,对所述交互下文进行语音合成,以得到回复语音;
交互模块,用于采用所述回复语音进行语音交互。
7.根据权利要求6所述的语音交互装置,其中,所述合成模块,用于:
将所述情感类型对应语音的第一mel特征和所述设定音色对应语音的第二mel特征、以及所述交互下文输入经过训练的语音合成模型,以得到所述回复语音。
8.根据权利要求7所述的语音交互装置,其中,所述语音合成模型,包括:
风格编码器,用于输入所述第一mel特征以得到风格编码;
音色编码器,用于输入所述第二mel特征以得到音色编码;
文本编码器,用于输入所述交互下文以得到文本编码;
解码器,用于输入所述文本编码、所述风格编码和所述音色编码以得到目标mel特征;
声码器,用于输入所述目标mel特征以得到所述回复语音。
9.根据权利要求7所述的语音交互装置,其中,所述语音合成模型分别采用第一训练样本和第二训练样本训练得到;
其中,所述第一训练样本,用于对所述语音合成模型进行第一阶段训练;所述第一训练样本包括采用至少一种音色录制的多种情感类型的第一语音,以及所述第一语音对应的文本;
所述第二训练样本,用于对所述语音合成模型进行第二阶段训练;所述第二训练样本包括采用所述设定音色录制的第二语音,以及所述第二语音对应的文本和情感类型。
10.根据权利要求6-9任一项所述的装置,其中,所述第二获取模块,具体用于:
查询所述交互下文对应的情感标签;其中,所述情感标签是采用情感分类模型对所述交互下文进行分类得到的;
根据所述情感标签,确定所述情感类型。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的语音交互方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的语音交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011254837.0A CN112382287A (zh) | 2020-11-11 | 2020-11-11 | 语音交互方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011254837.0A CN112382287A (zh) | 2020-11-11 | 2020-11-11 | 语音交互方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112382287A true CN112382287A (zh) | 2021-02-19 |
Family
ID=74582632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011254837.0A Pending CN112382287A (zh) | 2020-11-11 | 2020-11-11 | 语音交互方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112382287A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066473A (zh) * | 2021-03-31 | 2021-07-02 | 建信金融科技有限责任公司 | 一种语音合成方法、装置、存储介质及电子设备 |
CN113160832A (zh) * | 2021-04-30 | 2021-07-23 | 合肥美菱物联科技有限公司 | 一种支持声纹识别的语音洗衣机智能控制系统及方法 |
CN113409765A (zh) * | 2021-06-11 | 2021-09-17 | 北京搜狗科技发展有限公司 | 一种语音合成方法、装置和用于语音合成的装置 |
CN113555027A (zh) * | 2021-07-26 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音情感转换方法、装置、计算机设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705783A (zh) * | 2017-11-27 | 2018-02-16 | 北京搜狗科技发展有限公司 | 一种语音合成方法及装置 |
CN108597509A (zh) * | 2018-03-30 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 智能语音交互实现方法、装置、计算机设备及存储介质 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN109979457A (zh) * | 2019-05-29 | 2019-07-05 | 南京硅基智能科技有限公司 | 一种应用于智能对话机器人的千人千面的方法 |
CN110211562A (zh) * | 2019-06-05 | 2019-09-06 | 深圳前海达闼云端智能科技有限公司 | 一种语音合成的方法、电子设备及可读存储介质 |
CN111009233A (zh) * | 2019-11-20 | 2020-04-14 | 泰康保险集团股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111508470A (zh) * | 2020-04-26 | 2020-08-07 | 北京声智科技有限公司 | 一种语音合成模型的训练方法及装置 |
CN111667812A (zh) * | 2020-05-29 | 2020-09-15 | 北京声智科技有限公司 | 一种语音合成方法、装置、设备及存储介质 |
CN111862938A (zh) * | 2020-05-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种智能应答方法与终端、计算机可读存储介质 |
-
2020
- 2020-11-11 CN CN202011254837.0A patent/CN112382287A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705783A (zh) * | 2017-11-27 | 2018-02-16 | 北京搜狗科技发展有限公司 | 一种语音合成方法及装置 |
CN108597509A (zh) * | 2018-03-30 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 智能语音交互实现方法、装置、计算机设备及存储介质 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN109979457A (zh) * | 2019-05-29 | 2019-07-05 | 南京硅基智能科技有限公司 | 一种应用于智能对话机器人的千人千面的方法 |
CN110211562A (zh) * | 2019-06-05 | 2019-09-06 | 深圳前海达闼云端智能科技有限公司 | 一种语音合成的方法、电子设备及可读存储介质 |
CN111009233A (zh) * | 2019-11-20 | 2020-04-14 | 泰康保险集团股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111508470A (zh) * | 2020-04-26 | 2020-08-07 | 北京声智科技有限公司 | 一种语音合成模型的训练方法及装置 |
CN111862938A (zh) * | 2020-05-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种智能应答方法与终端、计算机可读存储介质 |
CN111667812A (zh) * | 2020-05-29 | 2020-09-15 | 北京声智科技有限公司 | 一种语音合成方法、装置、设备及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066473A (zh) * | 2021-03-31 | 2021-07-02 | 建信金融科技有限责任公司 | 一种语音合成方法、装置、存储介质及电子设备 |
CN113160832A (zh) * | 2021-04-30 | 2021-07-23 | 合肥美菱物联科技有限公司 | 一种支持声纹识别的语音洗衣机智能控制系统及方法 |
CN113409765A (zh) * | 2021-06-11 | 2021-09-17 | 北京搜狗科技发展有限公司 | 一种语音合成方法、装置和用于语音合成的装置 |
CN113409765B (zh) * | 2021-06-11 | 2024-04-26 | 北京搜狗科技发展有限公司 | 一种语音合成方法、装置和用于语音合成的装置 |
CN113555027A (zh) * | 2021-07-26 | 2021-10-26 | 平安科技(深圳)有限公司 | 语音情感转换方法、装置、计算机设备及存储介质 |
CN113555027B (zh) * | 2021-07-26 | 2024-02-13 | 平安科技(深圳)有限公司 | 语音情感转换方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112131988B (zh) | 确定虚拟人物唇形的方法、装置、设备和计算机存储介质 | |
KR102333505B1 (ko) | 소셜 대화형 입력들에 대한 컴퓨터 응답 생성 | |
CN106407178B (zh) | 一种会话摘要生成方法、装置、服务器设备以及终端设备 | |
CN112286366B (zh) | 用于人机交互的方法、装置、设备和介质 | |
CN112382287A (zh) | 语音交互方法、装置、电子设备和存储介质 | |
CN111221984A (zh) | 多模态内容处理方法、装置、设备及存储介质 | |
TWI430189B (zh) | 訊息擬真處理系統、裝置及方法 | |
CN110991427B (zh) | 用于视频的情绪识别方法、装置和计算机设备 | |
WO2017112813A1 (en) | Multi-lingual virtual personal assistant | |
CN111241245B (zh) | 人机交互处理方法、装置及电子设备 | |
JP7096919B2 (ja) | エンティティワードの認識方法と装置 | |
CN111324727A (zh) | 用户意图识别方法、装置、设备和可读存储介质 | |
CN112765971B (zh) | 文本语音的转换方法、装置、电子设备及存储介质 | |
CN112434139A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
US20220058213A1 (en) | Systems and methods for identifying dynamic types in voice queries | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN111177462B (zh) | 视频分发时效的确定方法和装置 | |
CN110910898B (zh) | 一种语音信息处理的方法和装置 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN106462629A (zh) | 搜索中的直接答案触发 | |
CN111883101A (zh) | 一种模型训练及语音合成方法、装置、设备和介质 | |
CN111353070A (zh) | 视频标题的处理方法、装置、电子设备及可读存储介质 | |
CN110633357A (zh) | 语音交互方法、装置、设备和介质 | |
CN111291184A (zh) | 表情的推荐方法、装置、设备及存储介质 | |
CN111930916B (zh) | 对话生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |