CN110600002A - 语音合成方法、装置及电子设备 - Google Patents
语音合成方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110600002A CN110600002A CN201910879666.1A CN201910879666A CN110600002A CN 110600002 A CN110600002 A CN 110600002A CN 201910879666 A CN201910879666 A CN 201910879666A CN 110600002 A CN110600002 A CN 110600002A
- Authority
- CN
- China
- Prior art keywords
- word
- voice
- synthesized
- synthesized voice
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 64
- 238000012937 correction Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 40
- 230000008909 emotion recognition Effects 0.000 claims abstract description 35
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 32
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 32
- 230000008451 emotion Effects 0.000 claims abstract description 28
- 230000002159 abnormal effect Effects 0.000 claims abstract description 20
- 230000011218 segmentation Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 13
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000288105 Grus Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Machine Translation (AREA)
Abstract
本公开实施例中提供了一种语音合成方法、装置及电子设备,属于数据处理技术领域,该方法包括:获取目标对象针对第一合成语音的反馈数据;利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;向所述目标对象播放所述第二合成语音。本公开的方案能够提高语音合成的准确性。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种语音合成方法、装置及电子设备。
背景技术
语音合成的发展历程主要分为三个阶段,分别为波形拼接法、参数合成法和端到端语音合成法。波形拼接合成法,根据需求在语音数据库中寻找相应的发音段,使用恰当的技术手段将所需的语音单元从语音库中查找出来,依次对整句文本进行音频拼接和调整,从而得到目标音频,该方法通过利用增强语音数据库、改进单元挑选策略、与统计方法结合等手段,使得合成的音频有很高的自然度,但同时该方法的缺点也非常明显,即需要建立一个几乎覆盖所有字词的完备语音数据库,这使得该方法的效率十分低下,无法进行实时合成。
接着出现了基于统计建模的参数合成法,参数合成法将TTS的整个过程分为了几个阶段,分别统计语音的韵律、时长等信息,然后在声学模型中进行合成。这种模型的优点是仅需要保存相关参数,不需要大量数据库,能够保证实时性;并且能够人为改善合成过程中出现的问题,如基频、基频波动范围、语速甚至音色等。这种模型的缺点是整体模型过于复杂需要分别维护多个模型,除了一般必须的参数合成模型外,针对特定问题如多音字、儿化音等问题,还需要再增加特定模型才能合成优秀的音色,这使得整体模型规模庞大,不易维护,各个模块组合在一起也会产生新的问题。一旦一个模型出现问题,可能所有模型都要更改,容易造成错误累积;同时难以复现声音细节,对齐问题需要人为矫正,机械感严重。
针对参数法的各项问题,基于端到端模型的TTS合成法成为新的主流合成方法。这种方法摒弃了参数合成中的多个复杂模块结合的方法,直接从文本生成音频。这种端到端的方式,减少了特征工程,只需要输入文本,其他的特征模型均可以通过端到端模型隐式建模。避免了多个子模型的误差传递和积累,各种条件添加方便,如语种、说话人、情感信息等。同时这种模型生成的语音细节丰富,能够大幅度还原人声。但是TTS模型性能不稳定,TTS模型经常会出现错字和多字的情况,如多音字读错的问题等。
发明内容
有鉴于此,本公开实施例提供一种语音合成方法、装置及电子设备,至少部分解决现有技术中存在的问题。
第一方面,本公开实施例提供了一种语音合成方法,包括:
获取目标对象针对第一合成语音的反馈数据;
利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;
当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;
向所述目标对象播放所述第二合成语音。
根据本公开实施例的一种具体实现方式,所述获取目标对象针对第一合成语音的反馈数据,包括:
在播放完所述第一合成语音之后,采集目标对象针对所述第一合成语音的响应语音;
基于所述响应语音,形成针对第一合成语音的反馈数据。
根据本公开实施例的一种具体实现方式,所述反馈数据中包括针对所述第一合成语音的反馈语义,基于所述反馈语义能够对所述第一合成语音执行纠错操作。
根据本公开实施例的一种具体实现方式,所述利用情绪识别模型对所述反馈数据进行情绪识别,包括:
将包含用户声音的反馈数据输入到所述情绪识别模型中;
利用所述情绪识别模型中的分类器对所述反馈数据进行分类处理;
基于所述分类处理的结果,对目标对象是否存在异常情绪进行判断。
根据本公开实施例的一种具体实现方式,所述利用纠错模块对所述第一合成语音进行纠错处理,包括:
获取所述第一合成语音对应的输入文本;
对所述输入文本进行分词处理,得到分词集合;
将分词集合输入n-gram语言模型,得到每个字/词的概率;
基于每个字/词的概率,确定所述第一合成语音对应的输入文本的流畅度;
当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理。
根据本公开实施例的一种具体实现方式,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,包括:
利用已训练充分的双向GRU将文本序列信息嵌入到特征向量中;
对分词后的字/词预测输出向量,
基于所述输出向量,对经过语言模型后的字/词特征概率进行二分类,以便于基于二分类的结果对错误的字/词进行标注。
根据本公开实施例的一种具体实现方式,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,还包括:
获取待纠错字/词以及词表搭配的拼音;
根据错误字/词的索引信息获取错误字/词的前一个词,并查询搭配表得到备选词集,所述备选词集中包含空值的备选词;
对错误字/词的拼音和备选词集合中的每个字/词的拼音求最长公共字串和编辑距离的加权分数,并设定相应阈值,选出超过阈值的前几个字/词进行备选;
基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理。
根据本公开实施例的一种具体实现方式,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,包括:
将备选字/词和原错误字/词一起输入到n-gram模型中,分别检测各个新句子的流畅度,计算得分并进行比较,选取最终分数最高的备选字/词作为该位置的输出字/词。
根据本公开实施例的一种具体实现方式,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,还包括:
从第一合成语音中去除错误字/词所在音段;
使用基于数据库的音频拼接合成方法对最终分数最高的备选字/词音频进行插入处理;
对插入后的第一合成语音执行合并处理。
根据本公开实施例的一种具体实现方式,所述获取目标对象针对第一合成语音的反馈数据之前,所述方法还包括:
利用端对端TTS模型及输入文本,生成所述第一合成语音。
根据本公开实施例的一种具体实现方式,所述利用端对端TTS模型及预设输入文本,生成所述第一合成语音,包括:
对输入文本进行文本归一化、分词、字素转音素处理,得到端对端TTS模型的输入信息;
将所述输入信息输入到所述端对端TTS模型中,利用所述端对端TTS模型中的声码器进行语音合成,得到所述第一合成语音。
第二方面,本公开实施例提供了一种语音合成装置,包括:
获取模块,用于获取目标对象针对第一合成语音的反馈数据;
判断模块,用于利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;
纠错模块,用于当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;
播放模块,用于向所述目标对象播放所述第二合成语音。
第三方面,本公开实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述任第一方面或第一方面的任一实现方式中的语音合成方法。
第四方面,本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的语音合成方法。
第五方面,本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的语音合成方法。
本公开实施例中的语音合成方案,包括获取目标对象针对第一合成语音的反馈数据;利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;向所述目标对象播放所述第二合成语音。通过本公开的方案,能够基于用户的反馈情绪对合成语音的准确性进行识别,提高语音合成的准确度。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种语音合成流程示意图;
图2为本公开实施例提供的另一种语音合成流程示意图;
图3为本公开实施例提供的另一种语音合成流程示意图;
图4为本公开实施例提供的另一种语音合成流程示意图;
图5为本公开实施例提供的一种语音合成装置结构示意图;
图6为本公开实施例提供的电子设备示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种语音合成方法。本实施例提供的语音合成方法可以由一计算装置来执行,该计算装置可以实现为软件,或者实现为软件和硬件的组合,该计算装置可以集成设置在服务器、终端设备等中。
参见图1,本公开实施例提供的一种语音合成方法,包括如下步骤:
S101,获取目标对象针对第一合成语音的反馈数据。
TTS模型经常会出现错字和多字的情况,前者属于前端问题,而后者则属于难以定位的后端模型问题,两者都会或多或少不可避免的发生。对于参数合成法能够精准定位问题出现在哪个模块,可以直接修改,但对于端到端模型就变得非常困难,由于模型是一个黑盒,因此很难定位问题位置,排错需要重新准备数据、再次训练,且再次训练也不一定能克服那些问题,代价很大,需要多次实验不断训练,不仅难定位,训练周期长,还可能依然无法解决当前错字多字的问题。对于语音合成来说,有两个基本标准,其一是准确度,其二是自然度。对于语音合成的音频来说,首要任务是要读准,其次才是要求它读的自然流畅。tacotron、tacotron2等端到端TTS模型相对参数合成法在自然度上有很大提升,但是错字多字问题直接影响了语音合成中的准确度问题。对于语音交互系统来说,如果准确度出现问题,再自然流畅也没有意义。因此,针对此类问题,本文发明了一种端到端TTS系统的纠错模型,旨在解决该系统的错字多字问题,促使整体语音交互过程更加准确流畅。
目标对象可以是合成语音针对的播放对象,目标对象可以是一个人也可以是其他的具有评价或反馈功能的对象。
第一合成语音可以通过端对端TTS来进行合成,具体的,可以首先对第一合成语音相关的输入文本进行前端处理,例如,可以对输入文本进行文本归一化、分词、字素转音素等步骤,得到端到端模型的输入信息。接下来通过端对端TTS系统输入该输入信息,并通过声码器进行语音合成。
第一合成语音生成之后,还可以对输出的语音段通过ASR进行识别。由于语音合成所用的数据均为录音棚录制,对于充分收敛后的模型合成的音频质量很高,且对于合成来说计算机所输出的话在NLP步骤中是经过语法和句法分析的,没有语句级别的错误,因此ASR几乎可以保证做到精准识别。
S102,利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪。
为了能够进行情绪识别,需要预先运营情绪识别数据。例如,可以采用CASIA汉语情感语料库与自行采集数据进行实验,共包括12名发音人,分为8种情绪类别,分别为生气、高兴、疑惑、恐惧、悲伤、惊讶、厌恶和中性,共19000句,每句时长约为4~5秒。
在对用户声音进行语音识别时,同时将用户的声音输入情绪识别分类模型,实验模型选用双向LSTM模型,后接softmax模型进行实时分类,当检测到该用户的情绪为疑惑、生气、厌恶、惊吓、恐惧时,对上次的语音合成语句输入纠错模块进行检错纠错。
S103,当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音。
在进行纠错处理时,可以首先检测句子流畅度。具体的,可以首先对句子进行分词—>断句—>去标点—>数字变星,然后通过n-gram语言模型扫描已合成的目标语句,检测分词后每个字或词的概率,然后把整句检测出的概率值相乘,并取其log值,就可以得到句子流畅度分数。如果句子流畅度高于设定阈值,则表示句子流畅度正常,不需要修改;若其低于阈值,则进行后续的定位错误词语位置步骤。
接下来,可以定位错误词语位置。具体的,在定位错误词位置时需要考虑句子结构的时序特性,利用已训练充分的双向GRU将文本序列信息嵌入到特征向量中,对每个分词后的字/词级单位预测输出向量,并进行二分类,当前位置字/词正确则标注1,错误则标注0。
具体步骤为:
1)统计词频、词数标签
2)‘词’—>‘索引’表,要将词转化为可处理的向量,需要先将其转化为相应的索引信息,然后进行embedding向量化。同时转换成索引的步骤也可以对输入数据进行padding填充操作,这样才能保证模型的输入向量长度一致。
将待处理文本进行分词、标注成数字信息,然后进行embedding向量化,对向量化后的数据输入已训练充分的双向GRU网络中,取出每个timestep阶段的输出层节点,然后输入到一个具有两个神经元的全连接层中,输出信息为1或0,即代表该位置字/词正确或错误。
接下来,可以生成待替换备选词
1)首先使用hanlp工具获得待纠错字/词以及词表搭配的拼音
2)根据错误字/词的索引信息获取错误字/词的前一个词,并查询搭配表得到备选词集述备选词集中包含空值的备选词,对于出现空值的这种情况,可以直接删掉空值对应的字或词,然后把前后两端直接连起来。
3)对错误字/词的拼音和备选词集合中的每个字/词的拼音求最长公共字串和编辑距离的加权分数,并设定相应阈值,取出超过阈值的前几个字/词进行备选。
接下来,再次检测句子流畅度,选取最优解(召回机制)。具体的,可以将几个备选字/词和原错误字/词一起输入到n-gram模型中,分别检测各个新句子的流畅度,计算得分并进行比较,选取最终分数最高的备选字/词作为该位置的输出字/词。这一步也能够把检错时对全对的句子消除误判,使得最优解依然为原句。
最后,可以从相应语库中通过规则寻找音频进行拼接。具体的,包括:
1)对错误位置进行切分。将错误词所在音段从合成总音段中去除,留下错误词前的音段和错误词后的音段两段音频分别标记为“原音1”和”原音2”。
2)使用基于数据库的音频拼接合成方法对备选词音频进行插入。备选词的语音单元是从一个已录制完毕的大型语音数据库中挑选出来的,该音库与端到端模型的训练语音库音色相同,因此以这种方法进行音频拼接可以完美融合目标语句。备选词的语音段选出后标记为“备选词音”。
3)使用sox工具的sox.Combiner函数对“原句1”+“备选词音”+“原句2”的顺序进行拼接,并在音段间隙增加适当的静音段。由于合成的语音基元都是来自自然的原始发音,合成语句的清晰度和自然度都将会非常高。至此,纠错模型的过程结束。
S104,向所述目标对象播放所述第二合成语音。
在完成纠错之后,可以再次向目标对象播放第二合成语音。例如,可以音段重新输出“对不起,我想说的是<第二合成语音>。
通过本申请实施例中的方案,能够基于用户的情绪是否异常进行重新语音合成,提高了语音合成的准确性。
根据本公开实施例的一种具体实现方式,所述获取目标对象针对第一合成语音的反馈数据,包括:在播放完所述第一合成语音之后,采集目标对象针对所述第一合成语音的响应语音;基于所述响应语音,形成针对第一合成语音的反馈数据。
根据本公开实施例的一种具体实现方式,所述反馈数据中包括针对所述第一合成语音的反馈语义,基于所述反馈语义能够对所述第一合成语音执行纠错操作。
参见图2,根据本公开实施例的一种具体实现方式,所述利用情绪识别模型对所述反馈数据进行情绪识别,包括:
S201,将包含用户声音的反馈数据输入到所述情绪识别模型中。
可以实时监听用户对于第一合成语音的评价声音,并将采集到的包含用户声音的反馈数据输入到所述情绪识别模型中。
S202,利用所述情绪识别模型中的分类器对所述反馈数据进行分类处理。
情绪识别模型中包含情绪识别样本数据,通过这些样本数据,能够对采集到的目标对象的情绪进行识别。例如,可以采用CASIA汉语情感语料库与自行采集数据进行实验,共包括12名发音人,分为8种情绪类别,分别为生气、高兴、疑惑、恐惧、悲伤、惊讶、厌恶和中性,共19000句,每句时长约为4~5秒。
S203,基于所述分类处理的结果,对目标对象是否存在异常情绪进行判断。
对用户声音进行语音识别时,同时将用户的声音输入情绪识别分类模型,实验模型选用双向LSTM模型,后接softmax进行实时分类,当检测到该用户的情绪为疑惑、生气、厌恶、惊吓、恐惧时,对上次的语音合成语句输入纠错模块进行检错纠错。
参见图3,根据本公开实施例的一种具体实现方式,所述利用纠错模块对所述第一合成语音进行纠错处理,包括:
S301,获取所述第一合成语音对应的输入文本。
可以采用对输出第一合成语音进行ASR识别的方式来获得输入文本。由于语音合成所用的数据均为录音棚录制,对于充分收敛后的模型合成的音频质量很高,且对于合成来说计算机所输出的话在NLP步骤中是经过语法和句法分析的,没有语句级别的错误,因此ASR几乎可以保证做到精准识别。
S302,对所述输入文本进行分词处理,得到分词集合。
可以通过对句子进行分词—>断句—>去标点—>数字变星的方式,得到分词集合
S303,将分词集合输入n-gram语言模型,得到每个字/词的概率。
通过分词集合,扫描已合成的目标语句,将分词集合输入n-gram语言模型,得到检测后的每个字或词的概率,然后把整句检测出的概率值相乘,并取其log值,就可以得到句子流畅度分数。
S304,基于每个字/词的概率,确定所述第一合成语音对应的输入文本的流畅度。
具体的,可以通过计算每个字/词的概率,来确定所述第一合成语音对应的输入文本的流畅度。
S305,当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理。
在实施步骤S305的过程中,根据本公开实施例的一种具体实现方式,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,包括:利用已训练充分的双向GRU将文本序列信息嵌入到特征向量中;对分词后的字/词预测输出向量,基于所述输出向量,对经过语言模型后的字/词特征概率进行二分类,以便于基于二分类的结果对错误的字/词进行标注。具体做法为:
1)搜集滨州树库等各开源中文语料数据集,以及自行整理的中文语料,总共约12000000条数据。该数据均为语句通顺,可以通过流畅度检测的正确语句,语料内容涵盖多个领域,具有通用性。
2)对训练预料数据的每句话进行分词,对分词集合的随机一个分词单元的字或词进行错误词替换,替换内容为从中文语料数据库中随机抽取的字或词,替换内容与被替换分词单元等长。
3)对原数据进行错误词标注。将被替换字或词位置标注为0(代表该位置单元错误),其余未替换的分词单元位置标注为1。(代表该位置单元正确)
4)用错误词标注后的训练数据对双向GRU网络进行训练建模。输入数据为分词后的带有错误字或词的中文语料,输入标注为0(该位置字/词错误)或1(该位置字/词错误)。GRU隐层单元为256*2,后接softmax分类层,输出单元为2维(0/1),学习率设置为1e-3,优化器为adam。
经过以上过程,错误词定位模型训练完成。将未通过流畅度检测的错误语句,经过分词后通过已训练充分的错误词定位模型,即可输出每个分词单元的正确性(0代表该位置错误,1代表该位置正确),即得到了该语句的错误词位置。
根据本公开实施例的一种具体实现方式,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,还包括:获取待纠错字/词以及词表搭配的拼音;根据错误字/词的索引信息获取错误字/词的前一个词,并查询搭配表得到备选词集,所述备选词集中包含空值的备选词;对错误字/词的拼音和备选词集合中的每个字/词的拼音求最长公共字串和编辑距离的加权分数,并设定相应阈值,选出超过阈值的前几个字/词进行备选;基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理。具体的,可以包括如下步骤:1)首先使用hanlp工具获得待纠错字/词以及词表搭配的拼音;2)根据错误字/词的索引信息获取错误字/词的前一个词,并查询搭配表得到备选词集(备选词包含空值)。3)对错误字/词的拼音和备选词集合中的每个字/词的拼音求最长公共字串和编辑距离的加权分数,并设定相应阈值,取出超过阈值的前几个字/词进行备选。
根据本公开实施例的一种具体实现方式,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,包括:将备选字/词和原错误字/词一起输入到n-gram模型中,分别检测各个新句子的流畅度,计算得分并进行比较,选取最终分数最高的备选字/词作为该位置的输出字/词。
根据本公开实施例的一种具体实现方式,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,还包括:从第一合成语音中去除错误字/词所在音段;使用基于数据库的音频拼接合成方法对最终分数最高的备选字/词音频进行插入处理;对插入后的第一合成语音执行合并处理。具体的,可以包括如下步骤:
1)对错误位置进行切分。将错误词所在音段从合成总音段中去除,留下错误词前的音段和错误词后的音段两段音频分别标记为“原音1”和”原音2”。
2)使用基于数据库的音频拼接合成方法对备选词音频进行插入。备选词的语音单元是从一个已录制完毕的大型语音数据库中挑选出来的,该音库与端到端模型的训练语音库音色相同,因此以这种方法进行音频拼接可以完美融合目标语句。备选词的语音段选出后标记为“备选词音”。
3)使用sox工具的sox.Combiner函数对“原句1”+“备选词音”+“原句2”的顺序进行拼接,并在音段间隙增加适当的静音段。由于合成的语音基元都是来自自然的原始发音,合成语句的清晰度和自然度都将会非常高。至此,纠错模型的过程结束。
根据本公开实施例的一种具体实现方式,所述获取目标对象针对第一合成语音的反馈数据之前,所述方法还包括:利用端对端TTS模型及输入文本,生成所述第一合成语音。
参见图4,根据本公开实施例的一种具体实现方式,所述利用端对端TTS模型及预设输入文本,生成所述第一合成语音,包括:
S401,对输入文本进行文本归一化、分词、字素转音素处理,得到端对端TTS模型的输入信息。
S402,将所述输入信息输入到所述端对端TTS模型中,利用所述端对端TTS模型中的声码器进行语音合成,得到所述第一合成语音。
与上面的方法实施例相对应,参见图5,本公开实施例还提供了一种语音合成装置50,包括:
获取模块501,用于获取目标对象针对第一合成语音的反馈数据;
判断模块502,用于利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;
纠错模块503,用于当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;
播放模块504,用于向所述目标对象播放所述第二合成语音。
图5所示装置可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。
参见图6,本公开实施例还提供了一种电子设备60,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中语音合成方法。
本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中。
本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的语音合成方法。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备60与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
Claims (14)
1.一种语音合成方法,其特征在于,包括:
获取目标对象针对第一合成语音的反馈数据;
利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;
当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;
向所述目标对象播放所述第二合成语音。
2.根据权利要求1所述的方法,其特征在于,所述获取目标对象针对第一合成语音的反馈数据,包括:
在播放完所述第一合成语音之后,采集目标对象针对所述第一合成语音的响应语音;
基于所述响应语音,形成针对第一合成语音的反馈数据。
3.根据权利要求2所述的方法,其特征在于:
所述反馈数据中包括针对所述第一合成语音的反馈语义,基于所述反馈语义能够对所述第一合成语音执行纠错操作。
4.根据权利要求1所述的方法,其特征在于,所述利用情绪识别模型对所述反馈数据进行情绪识别,包括:
将包含用户声音的反馈数据输入到所述情绪识别模型中;
利用所述情绪识别模型中的分类器对所述反馈数据进行分类处理;
基于所述分类处理的结果,对目标对象是否存在异常情绪进行判断。
5.根据权利要求1所述的方法,其特征在于,所述利用纠错模块对所述第一合成语音进行纠错处理,包括:
获取所述第一合成语音对应的输入文本;
对所述输入文本进行分词处理,得到分词集合;
将分词集合输入n-gram语言模型,得到每个字/词的概率;
基于每个字/词的概率,确定所述第一合成语音对应的输入文本的流畅度;
当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理。
6.根据权利要求5所述的方法,其特征在于,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,包括:
利用已训练充分的双向GRU将文本序列信息嵌入到特征向量中;
对分词后的字/词预测输出向量,
基于所述输出向量,对经过语言模型后的字/词特征概率进行二分类,以便于基于二分类的结果对错误的字/词进行标注。
7.根据权利要求6所述的方法,其特征在于,所述当所述流畅度低于预设阈值时,对所述第一合成语音对应的输入文本进行纠错处理,还包括:
获取待纠错字/词以及词表搭配的拼音;
根据错误字/词的索引信息获取错误字/词的前一个词,并查询搭配表得到备选词集,所述备选词集中包含空值的备选词;
对错误字/词的拼音和备选词集合中的每个字/词的拼音求最长公共字串和编辑距离的加权分数,并设定相应阈值,选出超过阈值的前几个字/词进行备选;
基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理。
8.根据权利要求7所述的方法,其特征在于,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,包括:
将备选字/词和原错误字/词一起输入到n-gram模型中,分别检测各个新句子的流畅度,计算得分并进行比较,选取最终分数最高的备选字/词作为该位置的输出字/词。
9.根据权利要求8所述的方法,其特征在于,所述基于选出的备选字/词,对所述第一合成语音对应的输入文本进行纠错处理,还包括:
从第一合成语音中去除错误字/词所在音段;
使用基于数据库的音频拼接合成方法对最终分数最高的备选字/词音频进行插入处理;
对插入后的第一合成语音执行合并处理。
10.根据权利要求1所述的方法,其特征在于,所述获取目标对象针对第一合成语音的反馈数据之前,所述方法还包括:
利用端对端TTS模型及输入文本,生成所述第一合成语音。
11.根据权利要求10所述的方法,其特征在于,所述利用端对端TTS模型及预设输入文本,生成所述第一合成语音,包括:
对输入文本进行文本归一化、分词、字素转音素处理,得到端对端TTS模型的输入信息;
将所述输入信息输入到所述端对端TTS模型中,利用所述端对端TTS模型中的声码器进行语音合成,得到所述第一合成语音。
12.一种语音合成装置,其特征在于,包括:
获取模块,用于获取目标对象针对第一合成语音的反馈数据;
判断模块,用于利用情绪识别模型对所述反馈数据进行情绪识别,以判断所述目标对象是否存在针对所述第一合成语音的异常情绪;
纠错模块,用于当所述目标对象存在针对所述第一合成语音的异常情绪时,利用纠错模块对所述第一合成语音进行纠错处理,以得到第二合成语音;
播放模块,用于向所述目标对象播放所述第二合成语音。
13.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述任一权利要求1-11所述的语音合成方法。
14.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述任一权利要求1-11所述的语音合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879666.1A CN110600002B (zh) | 2019-09-18 | 2019-09-18 | 语音合成方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879666.1A CN110600002B (zh) | 2019-09-18 | 2019-09-18 | 语音合成方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600002A true CN110600002A (zh) | 2019-12-20 |
CN110600002B CN110600002B (zh) | 2022-04-22 |
Family
ID=68860407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910879666.1A Active CN110600002B (zh) | 2019-09-18 | 2019-09-18 | 语音合成方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600002B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111312209A (zh) * | 2020-02-21 | 2020-06-19 | 北京声智科技有限公司 | 文本到语音的转换处理方法、装置及电子设备 |
CN111401012A (zh) * | 2020-03-09 | 2020-07-10 | 北京声智科技有限公司 | 文本纠错方法、电子设备及计算机可读存储介质 |
CN112151006A (zh) * | 2020-06-30 | 2020-12-29 | 北京来也网络科技有限公司 | 结合rpa与ai的拼音处理方法及装置 |
CN112908293A (zh) * | 2021-03-11 | 2021-06-04 | 浙江工业大学 | 一种基于语义注意力机制的多音字发音纠错方法及装置 |
US11587547B2 (en) | 2019-02-28 | 2023-02-21 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1256931A1 (en) * | 2001-05-11 | 2002-11-13 | Sony France S.A. | Method and apparatus for voice synthesis and robot apparatus |
US20030220796A1 (en) * | 2002-03-06 | 2003-11-27 | Kazumi Aoyama | Dialogue control system, dialogue control method and robotic device |
CN102385858A (zh) * | 2010-08-31 | 2012-03-21 | 国际商业机器公司 | 情感语音合成方法和系统 |
CN104882139A (zh) * | 2015-05-28 | 2015-09-02 | 百度在线网络技术(北京)有限公司 | 语音合成的方法和装置 |
US20160071510A1 (en) * | 2014-09-08 | 2016-03-10 | Microsoft Corporation | Voice generation with predetermined emotion type |
CN106573375A (zh) * | 2014-04-17 | 2017-04-19 | 软银机器人欧洲公司 | 用于管理机器人的对话的方法和系统 |
CN107039033A (zh) * | 2017-04-17 | 2017-08-11 | 海南职业技术学院 | 一种语音合成装置 |
CN107423364A (zh) * | 2017-06-22 | 2017-12-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的回答话术播报方法、装置及存储介质 |
CN108550363A (zh) * | 2018-06-04 | 2018-09-18 | 百度在线网络技术(北京)有限公司 | 语音合成方法及装置、计算机设备及可读介质 |
CN108877794A (zh) * | 2018-06-04 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于人机交互的方法、装置、电子设备和计算机可读存储介质 |
CN109040492A (zh) * | 2018-08-09 | 2018-12-18 | 北京烽火万家科技有限公司 | 一种智能语音客服机器人 |
CN109545183A (zh) * | 2018-11-23 | 2019-03-29 | 北京羽扇智信息科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN110210029A (zh) * | 2019-05-30 | 2019-09-06 | 浙江远传信息技术股份有限公司 | 基于垂直领域的语音文本纠错方法、系统、设备及介质 |
-
2019
- 2019-09-18 CN CN201910879666.1A patent/CN110600002B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1256931A1 (en) * | 2001-05-11 | 2002-11-13 | Sony France S.A. | Method and apparatus for voice synthesis and robot apparatus |
US20030220796A1 (en) * | 2002-03-06 | 2003-11-27 | Kazumi Aoyama | Dialogue control system, dialogue control method and robotic device |
CN102385858A (zh) * | 2010-08-31 | 2012-03-21 | 国际商业机器公司 | 情感语音合成方法和系统 |
CN106573375A (zh) * | 2014-04-17 | 2017-04-19 | 软银机器人欧洲公司 | 用于管理机器人的对话的方法和系统 |
US20160071510A1 (en) * | 2014-09-08 | 2016-03-10 | Microsoft Corporation | Voice generation with predetermined emotion type |
CN104882139A (zh) * | 2015-05-28 | 2015-09-02 | 百度在线网络技术(北京)有限公司 | 语音合成的方法和装置 |
CN107039033A (zh) * | 2017-04-17 | 2017-08-11 | 海南职业技术学院 | 一种语音合成装置 |
CN107423364A (zh) * | 2017-06-22 | 2017-12-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的回答话术播报方法、装置及存储介质 |
CN108550363A (zh) * | 2018-06-04 | 2018-09-18 | 百度在线网络技术(北京)有限公司 | 语音合成方法及装置、计算机设备及可读介质 |
CN108877794A (zh) * | 2018-06-04 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于人机交互的方法、装置、电子设备和计算机可读存储介质 |
CN109040492A (zh) * | 2018-08-09 | 2018-12-18 | 北京烽火万家科技有限公司 | 一种智能语音客服机器人 |
CN109545183A (zh) * | 2018-11-23 | 2019-03-29 | 北京羽扇智信息科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN110210029A (zh) * | 2019-05-30 | 2019-09-06 | 浙江远传信息技术股份有限公司 | 基于垂直领域的语音文本纠错方法、系统、设备及介质 |
Non-Patent Citations (2)
Title |
---|
E.EIDE: "PRESERVATION,IDENTIFICATION, AND USE OF EMOTION IN A TEXT-TO-SPEECH SYSTEM", 《 PROCEEDINGS OF 2002 IEEE WORKSHOP ON SPEECH SYNTHESIS 2002》 * |
王一婷等: "人工智能识别主持人情感", 《中国广播电视学刊》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11587547B2 (en) | 2019-02-28 | 2023-02-21 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
CN111312209A (zh) * | 2020-02-21 | 2020-06-19 | 北京声智科技有限公司 | 文本到语音的转换处理方法、装置及电子设备 |
CN111401012A (zh) * | 2020-03-09 | 2020-07-10 | 北京声智科技有限公司 | 文本纠错方法、电子设备及计算机可读存储介质 |
CN111401012B (zh) * | 2020-03-09 | 2023-11-21 | 北京声智科技有限公司 | 文本纠错方法、电子设备及计算机可读存储介质 |
CN112151006A (zh) * | 2020-06-30 | 2020-12-29 | 北京来也网络科技有限公司 | 结合rpa与ai的拼音处理方法及装置 |
CN112908293A (zh) * | 2021-03-11 | 2021-06-04 | 浙江工业大学 | 一种基于语义注意力机制的多音字发音纠错方法及装置 |
CN112908293B (zh) * | 2021-03-11 | 2022-08-02 | 浙江工业大学 | 一种基于语义注意力机制的多音字发音纠错方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110600002B (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110600002B (zh) | 语音合成方法、装置及电子设备 | |
CN111292720B (zh) | 语音合成方法、装置、计算机可读介质及电子设备 | |
CN110782870B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN110148427B (zh) | 音频处理方法、装置、系统、存储介质、终端及服务器 | |
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
US8818813B2 (en) | Methods and system for grammar fitness evaluation as speech recognition error predictor | |
CN1667700B (zh) | 把字的语音或声学描述、发音添加到语音识别词典的方法 | |
CN111312231B (zh) | 音频检测方法、装置、电子设备及可读存储介质 | |
CN106297800B (zh) | 一种自适应的语音识别的方法和设备 | |
CN111798832A (zh) | 语音合成方法、装置和计算机可读存储介质 | |
CN112309366B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
CN111312209A (zh) | 文本到语音的转换处理方法、装置及电子设备 | |
CN111489735B (zh) | 语音识别模型训练方法及装置 | |
CN112331176B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
US20140236597A1 (en) | System and method for supervised creation of personalized speech samples libraries in real-time for text-to-speech synthesis | |
CN112802446B (zh) | 音频合成方法及装置、电子设备和计算机可读存储介质 | |
CN111354343B (zh) | 语音唤醒模型的生成方法、装置和电子设备 | |
CN112927674B (zh) | 语音风格的迁移方法、装置、可读介质和电子设备 | |
CN112309367B (zh) | 语音合成方法、装置、存储介质及电子设备 | |
CN114242033A (zh) | 语音合成方法、装置、设备、存储介质及程序产品 | |
CN115132174A (zh) | 一种语音数据处理方法、装置、计算机设备及存储介质 | |
CN115116428A (zh) | 韵律边界标注方法、装置、设备、介质及程序产品 | |
KR100438347B1 (ko) | 어학 학습 시스템, 방법 및 기록매체 | |
CN112530405A (zh) | 一种端到端语音合成纠错方法、系统及装置 | |
CN116189652A (zh) | 语音合成方法、装置、可读介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |