CN110853613B - 韵律停顿等级预测的校正方法、装置、设备和介质 - Google Patents

韵律停顿等级预测的校正方法、装置、设备和介质 Download PDF

Info

Publication number
CN110853613B
CN110853613B CN201911119829.2A CN201911119829A CN110853613B CN 110853613 B CN110853613 B CN 110853613B CN 201911119829 A CN201911119829 A CN 201911119829A CN 110853613 B CN110853613 B CN 110853613B
Authority
CN
China
Prior art keywords
vector
prediction result
result sequence
state
state vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911119829.2A
Other languages
English (en)
Other versions
CN110853613A (zh
Inventor
聂志朋
陈昌滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Priority to CN201911119829.2A priority Critical patent/CN110853613B/zh
Publication of CN110853613A publication Critical patent/CN110853613A/zh
Application granted granted Critical
Publication of CN110853613B publication Critical patent/CN110853613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种韵律停顿等级预测的校正方法、装置、设备和介质,涉及韵律停顿等级预测技术。具体实现方案为:获取输入文本的韵律停顿等级的初始预测结果序列;获取所述初始预测结果序列的状态向量,其中,状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;将所述融合向量输入条件随机场网络,得到校正后的预测结果序列。本申请实施例将语义向量与状态向量融合后再进行CRF,由于状态向量能表示预测结果序列中各元素之间的依赖关系,因此融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。

Description

韵律停顿等级预测的校正方法、装置、设备和介质
技术领域
本申请涉及语音合成技术领域,尤其涉及一种韵律停顿等级预测技术,具体涉及一种韵律停顿等级预测的校正方法、装置、设备和介质。
背景技术
韵律停顿等级预测是语音合成中一个重要的环节,它可以通过文本内容来预测文本中的停顿位置和停顿等级,使得利用文本中的停顿位置和停顿等级合成出来的语音能够尽量符合人类自然说话的停顿和韵律习惯,提高合成语音的自然度和可懂度。
韵律停顿等级预测模型通常是根据输入的文本以及一些语义特征来得到预测结果,为了提高模型预测的准确度,通常可以在模型顶层增加CRF(conditional randomfield,条件随机场)机制以调整预测的结果,使之更加准确。然而,这种方法仍然无法满足目前对韵律停顿等级预测结果准确度的需求,从而影响合成语音的自然度和可懂度。
发明内容
本申请实施例提供一种韵律停顿等级预测的校正方法、装置、设备和介质,以提高韵律停顿等级预测结果的准确度。
第一方面,本申请实施例提供了一种韵律停顿等级预测的校正方法,包括:
获取输入文本的韵律停顿等级的初始预测结果序列;
获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;
将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;
将所述融合向量输入条件随机场网络,得到校正后的预测结果序列。
上述申请中的一个实施例具有如下优点或有益效果:通过将语义向量与状态向量融合后再进行CRF,使得融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。
可选的,所述获取所述初始预测结果序列的状态向量,包括:
利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量。
可选的,所述利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量,包括:
将所述初始预测结果序列输入embedding层进行转化,得到高维初始预测结果序列;
将所述高维初始预测结果序列输入所述预先训练好的预测状态网络进行处理,得到所述状态向量。
上述申请中的一个实施例具有如下优点或有益效果:利用机器学习的方法,能够快速、准确地获取状态向量,通过embedding层的转化,还能够降低运算复杂度。
可选的,所述预测状态网络是由循环神经网络构成,或者由注意力机制构成。
上述申请中的一个实施例具有如下优点或有益效果:循环神经网络或注意力机制,不仅易于实现,而且占用较少系统资源的同时,能够达到一定的准确度。
可选的,所述融合向量用如下公式表示:
Figure BDA0002275143730000021
其中,ht表示所述融合向量,wenc表示将所述输入文本转化为语义向量的文本编码器的参数,
Figure BDA0002275143730000022
表示所述语义向量,wpred表示所述预测状态网络的参数,
Figure BDA0002275143730000023
表示所述状态向量,b为预先设定的偏置参数。
第二方面,本申请实施例还提供了一种韵律停顿等级预测的校正装置,包括:
初始预测结果序列获取模块,用于获取输入文本的韵律停顿等级的初始预测结果序列;
状态向量获取模块,用于获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;
融合模块,用于将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;
条件随机场模块,用于将所述融合向量输入条件随机场网络,得到校正后的预测结果序列。
第三方面,本申请实施例还提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请任意实施例所述的韵律停顿等级预测的校正方法。
第四方面,本申请实施例还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请任意实施例所述的韵律停顿等级预测的校正方法。
上述申请中的一个实施例具有如下优点或有益效果:将语义向量与状态向量融合后再进行CRF,由于状态向量能够表示预测结果序列中各元素之间的依赖关系,因此,融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。而且,网络的训练过程中不需要增加额外的训练数据,易于实现和推广。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的韵律停顿等级预测的校正方法的流程示意图;
图2a是根据本申请第二实施例的韵律停顿等级预测的校正方法的流程示意图;
图2b是根据本申请第二实施例的韵律停顿等级预测的校正方法的另一种流程示意图;
图3是根据本申请第三实施例的韵律停顿等级预测的校正装置的结构示意图;
图4是用来实现本申请实施例的韵律停顿等级预测的校正方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的韵律停顿等级预测的校正方法的流程示意图,本实施例可适用于在进行语音合成过程中,对输入文本的韵律停顿等级预测后进行校正的情况。该方法可由一种韵律停顿等级预测的校正装置来执行,该装置采用软件和/或硬件的方式实现,优选是配置于电子设备中,例如计算机设备或服务器等。如图1所示,该方法具体包括如下:
S101、获取输入文本的韵律停顿等级的初始预测结果序列。
在对所述输入文本进行语音合成时,需要对其进行韵律停顿等级的预测,例如,可以利用预先训练好的预测模型来实现,得到所述初始预测结果序列,通常,该序列中的各元素即为输入文本中每个字的停顿等级。其中,所述预测模型可以利用现有技术中的任一模型来实现,此处不再赘述。
然而,由于模型的训练样本有限,以及标注数据不准确等原因,预测模型的准确度受到限制。为了提高模型的准确度,现有技术通常是在模型的顶层增加CRF机制,CRF即条件随机场,可以对模型的预测结果进行校正。但是,CRF网络只考虑预测结果序列,不会考虑序列对应的输入文本的语义信息,而且其仅关注相邻两个位置的字的关系,不会关注输入文本整体,因此,CRF网络对模型预测结果序列的调整作用不强,使得校正的结果仍然欠缺准确性。
而在本申请实施例中,则是充分结合输入文本的语义信息,以及初始的预测结果序列中各元素之间的依赖关系,从而增强CRF的调整作用,提高校正后的预测结果序列的准确性。接下来就对此进行详细描述。
S102、获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系。
输入文本中任一个字后面是否停顿,及其停顿等级,不仅与这个字及其相邻字之间的关系有关,还与这个字与整个输入文本中的其他字或词有关,例如,同样的字或词,在不同的输入文本中,其停顿等级通常都是不同的。因此,在对初始的预测结果序列进行校正的过程中,需要考虑各个元素之间的依赖关系,才能更准确地进行校正。
在本申请实施例中,用所述状态向量来表示初始预测结果序列中各元素之间的依赖关系。而获取初始预测结果序列的状态向量,包括:利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量。
具体的,所述预测状态网络可以预先利用机器学习的方法进行训练得到,用以获取初始预测结果序列中各元素之间的依赖关系。同时,所述预测状态网络可以由循环神经网络构成,例如双向LSTM(Long short-term memory,长短期记忆)结构,也可以由attention(注意力)机制构成。
S103、将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量。
输入文本的语义向量可以由文本编码器实现,即利用预先训练好的文本编码器将输入文本转化为高级的语义表示向量。需要说明的是,在一种实施方式中,该文本编码器可以复用上述预测模型的浅层语义表示。
语义向量与状态向量融合后得到的融合向量,则包含了输入文本的语义信息以及初始的预测结果序列中各元素之间的依赖关系,利用这个融合向量进一步进行CRF,则可以提高校正的准确性。
S104、将所述融合向量输入CRF网络,得到校正后的预测结果序列。
例如,当本申请实施例用于对人工标注的韵律停顿数据进行二次校验时,所述初始的预测结果序列则为人工标注的韵律停顿数据,经过上述将该序列对应的输入文本的语义向量与状态向量的融合,再输入CRF网络,即可实现对该人工标注的韵律停顿数据进行二次校验。
再例如,当本申请实施例用于对人工干预部分韵律结果后的序列进行自适应调整时,所述初始的预测结果序列则为人工干预部分韵律结果后的序列,而人工干预部分预测结果后,可能与干预的部分具有依赖关系的部分也会随之发生韵律停顿等级改变,如若不做调整,合成语音的自然度将受到影响。因此,经过上述的融合再输入CRF网络,则可以实现对该人工干预部分韵律结果后的序列的校正。
本申请实施例的技术方案,将语义向量与状态向量融合后再进行CRF,由于状态向量能够表示预测结果序列中各元素之间的依赖关系,因此,融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。
图2a是根据本申请第二实施例的韵律停顿等级预测的校正方法的流程示意图,本实施例在上述实施例的基础上进一步进行优化。如图2a所示,该方法具体包括如下:
S201、获取输入文本的韵律停顿等级的初始预测结果序列。
S202、将所述初始预测结果序列输入embedding层进行转化,得到高维初始预测结果序列。
其中,embedding层也叫嵌入层,可以将稀疏矩阵转化为密集矩阵。
S203、将所述高维初始预测结果序列输入所述预先训练好的预测状态网络进行处理,得到所述状态向量。其中,所述预测状态网络是由循环神经网络构成,或者由attention机制构成。
这里需要说明的是,关于预测状态网络的训练,可以是先搭建好完整框架后进行整体的训练,即可得到训练好的预测状态网络。所述完整框架既包括将输入文本转化为语义向量的文本编码器、embedding层、预测状态网络、用于将语义向量与状态向量进行融合的融合网络以及CRF网络。
训练时,可以是预先获取大量的初始预测结果序列的样本,例如可以是人工标注的韵律停顿数据,也可以是人工干预部分韵律结果后的序列,还可以是预测模型预测的结果序列,并获取对各个样本标注的校正后的结果序列。然后,将这些样本输入embedding层,也将这些样本对应的文本输入文本编码器部分进行语义向量的转化,embedding层的输出与预测状态网络连接,文本编码器的输出和预测状态网络的输出给到融合网络进行融合,融合网络的输出结果再输入给CRF网络进行校正,而CRF网络的输出即为所述各个样本标注的校正后的结果序列。以此利用样本对框架中的各个网络进行训练。
S204、将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量。
在一种实施方式中,所述融合向量可以用如下公式表示:
Figure BDA0002275143730000071
其中,ht表示所述融合向量,wenc表示将所述输入文本转化为语义向量的文本编码器的参数,
Figure BDA0002275143730000072
表示所述语义向量,wpred表示所述预测状态网络的参数,
Figure BDA0002275143730000073
表示所述状态向量,b为预先设定的偏置参数。
S205、将所述融合向量输入CRF网络,得到校正后的预测结果序列。
此外,考虑不同发音人的韵律停顿习惯与规律不尽相同,而如果能对不同的发音人的韵律停顿习惯与规律进行学习,让网络能对不同发音人进行个性化的识别,则可以实现针对不同的发音人给出不同的校正结果,继而实现后续语音合成的个性化展现。
因此,可选的,在本申请实施例中,可以在embedding层的输出给到预测状态网络之前,与经过embedding的发音人ID进行相加或拼接,然后再输入给预测状态网络。其中,所述发音人ID是对每个发音人的标识进行编码后得到,不同的发音人都有其唯一标识,以及唯一ID,通过对发音人ID进行embedding,以将发音人ID映射为高维向量,从而与高维初始预测结果序列进行相加或拼接,其结果作为预测状态网络的输入,进而实现个性化学习。
图2b示出了包括文本编码器、embedding层、发音人ID embedding、预测状态网络、融合网络和CRF的网络框架,以及基于该网络框架的韵律停顿等级预测的校正方法的流程示意图。如图所示,对于序列{I B1 I B2 I B2 I B2 I B3 I B4},是输入文本“韵律停顿等级自动校正系统”的原始韵律停顿等级预测结果,其中I表示不停顿,而B1、B2、B3和B4则表示不同等级的停顿。当将其中第二个B2更改为B3时,由于这种更改也会对序列中的其他元素产生影响,因此,利用如图所示的架构对其进行校正,最终得到校正后的序列为{I B1 IB1 I B3 I B2 I B2 I B4},使得在考虑了不同元素之间的依赖关系后,经校正的韵律停顿等级序列更加符合自然的韵律停顿,准确度和可懂度更高。训练该网络架构时,可以在搭建好该网络框架后,将不同发音人及其标注数据作为训练样本,利用该训练样本对该网络框架进行训练,从而可以分别得到框架中的各个网络部分。
本申请实施例的技术方案,将语义向量与状态向量融合后再进行CRF,由于状态向量能够表示预测结果序列中各元素之间的依赖关系,因此,融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。而且,通过对不同发音人进行标注,并将不同发音人及其标注数据作为训练样本,使得训练出的网络能够进行个性化的校正。此外,网络的训练过程中也不需要增加额外的训练数据,易于实现和推广。
图3是根据本申请第三实施例的韵律停顿等级预测的校正装置的结构示意图,本实施例可适用于在进行语音合成过程中,对输入文本的韵律停顿等级预测后进行校正的情况。该装置可实现本申请任意实施例所述的韵律停顿等级预测的校正方法。如图3所示,该装置300具体包括:
初始预测结果序列获取模块301,用于获取输入文本的韵律停顿等级的初始预测结果序列;
状态向量获取模块302,用于获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;
融合模块303,用于将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;
条件随机场模块304,用于将所述融合向量输入条件随机场网络,得到校正后的预测结果序列。
可选的,所述状态向量获取模块302具体用于:
利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量。
可选的,所述状态向量获取模块302包括:
Embedding单元,用于将所述初始预测结果序列输入embedding层进行转化,得到高维初始预测结果序列;
状态向量获取单元,用于将所述高维初始预测结果序列输入所述预先训练好的预测状态网络进行处理,得到所述状态向量。
可选的,所述预测状态网络是由循环神经网络构成,或者由注意力机制构成。
可选的,所述融合向量用如下公式表示:
Figure BDA0002275143730000091
其中,ht表示所述融合向量,wenc表示将所述输入文本转化为语义向量的文本编码器的参数,
Figure BDA0002275143730000092
表示所述语义向量,wpred表示所述预测状态网络的参数,
Figure BDA0002275143730000093
表示所述状态向量,b为预先设定的偏置参数。
本申请实施例提供的韵律停顿等级预测的校正装置300可执行本申请任意实施例提供的韵律停顿等级预测的校正方法,具备执行方法相应的功能模块和有益效果。本实施例中未详尽描述的内容可以参考本申请任意方法实施例中的描述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图4所示,是根据本申请实施例的韵律停顿等级预测的校正方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图4所示,该电子设备包括:一个或多个处理器401、存储器402,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器401为例。
存储器402即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的韵律停顿等级预测的校正方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的韵律停顿等级预测的校正方法。
存储器402作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的韵律停顿等级预测的校正方法对应的程序指令/模块(例如,附图3所示的初始预测结果序列获取模块模块301、状态向量获取模块302、融合模块303和条件随机场模块304)。处理器401通过运行存储在存储器402中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的韵律停顿等级预测的校正方法。
存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据实现本申请实施例的韵律停顿等级预测的校正方法的电子设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至实现本申请实施例的韵律停顿等级预测的校正方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现本申请实施例的韵律停顿等级预测的校正方法的电子设备还可以包括:输入装置403和输出装置404。处理器401、存储器402、输入装置403和输出装置404可以通过总线或者其他方式连接,图4中以通过总线连接为例。
输入装置403可接收输入的数字或字符信息,以及产生与实现本申请实施例的韵律停顿等级预测的校正方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置404可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,将语义向量与状态向量融合后再进行CRF,由于状态向量能够表示预测结果序列中各元素之间的依赖关系,因此,融合后不仅结合了语义信息,还结合了预测结果序列中各元素之间的依赖关系,从而提高CRF输出的最终校正后的预测结果序列的准确度。而且,网络的训练过程中不需要增加额外的训练数据,易于实现和推广。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种韵律停顿等级预测的校正方法,其特征在于,包括:
获取输入文本的韵律停顿等级的初始预测结果序列;
获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;
将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;
将所述融合向量输入条件随机场网络,得到校正后的预测结果序列;
所述获取所述初始预测结果序列的状态向量,包括:
利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量。
2.根据权利要求1所述的方法,其特征在于,所述利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量,包括:
将所述初始预测结果序列输入embedding层进行转化,得到高维初始预测结果序列;
将所述高维初始预测结果序列输入所述预先训练好的预测状态网络进行处理,得到所述状态向量。
3.根据权利要求1或2所述的方法,其特征在于,所述预测状态网络是由循环神经网络构成,或者由注意力机制构成。
4.根据权利要求1或2所述的方法,其特征在于,所述融合向量用如下公式表示:
Figure FDA0003533072760000011
其中,ht表示所述融合向量,wenc表示将所述输入文本转化为语义向量的文本编码器的参数,
Figure FDA0003533072760000012
表示所述语义向量,wpred表示所述预测状态网络的参数,
Figure FDA0003533072760000013
表示所述状态向量,b为预先设定的偏置参数。
5.一种韵律停顿等级预测的校正装置,其特征在于,包括:
初始预测结果序列获取模块,用于获取输入文本的韵律停顿等级的初始预测结果序列;
状态向量获取模块,用于获取所述初始预测结果序列的状态向量,其中,所述状态向量用于表示所述初始预测结果序列中各元素之间的依赖关系;
融合模块,用于将所述输入文本的语义向量与所述状态向量进行融合,得到融合向量;
条件随机场模块,用于将所述融合向量输入条件随机场网络,得到校正后的预测结果序列;
所述状态向量获取模块具体用于:
利用预先训练好的预测状态网络对所述初始预测结果序列进行处理,得到所述状态向量。
6.根据权利要求5所述的装置,其特征在于,所述状态向量获取模块包括:
Embedding单元,用于将所述初始预测结果序列输入embedding层进行转化,得到高维初始预测结果序列;
状态向量获取单元,用于将所述高维初始预测结果序列输入所述预先训练好的预测状态网络进行处理,得到所述状态向量。
7.根据权利要求5或6所述的装置,其特征在于,所述预测状态网络是由循环神经网络构成,或者由注意力机制构成。
8.根据权利要求5或6所述的装置,其特征在于,所述融合向量用如下公式表示:
Figure FDA0003533072760000021
其中,ht表示所述融合向量,wenc表示将所述输入文本转化为语义向量的文本编码器的参数,
Figure FDA0003533072760000022
表示所述语义向量,wpred表示所述预测状态网络的参数,
Figure FDA0003533072760000023
表示所述状态向量,b为预先设定的偏置参数。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的韵律停顿等级预测的校正方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的韵律停顿等级预测的校正方法。
CN201911119829.2A 2019-11-15 2019-11-15 韵律停顿等级预测的校正方法、装置、设备和介质 Active CN110853613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911119829.2A CN110853613B (zh) 2019-11-15 2019-11-15 韵律停顿等级预测的校正方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911119829.2A CN110853613B (zh) 2019-11-15 2019-11-15 韵律停顿等级预测的校正方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN110853613A CN110853613A (zh) 2020-02-28
CN110853613B true CN110853613B (zh) 2022-04-26

Family

ID=69601426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911119829.2A Active CN110853613B (zh) 2019-11-15 2019-11-15 韵律停顿等级预测的校正方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN110853613B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962191B (zh) * 2021-09-22 2022-09-23 北京百度网讯科技有限公司 序列随机化方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156990A (ja) * 2000-11-22 2002-05-31 Matsushita Electric Ind Co Ltd 中国語音声合成におけるポーズ継続時間処理方法及び装置
WO2012070228A1 (ja) * 2010-11-22 2012-05-31 日本電気株式会社 対話テキスト解析装置、方法およびプログラム
CN104050962A (zh) * 2013-03-16 2014-09-17 李军 基于语音合成技术的多功能阅读器
CN105551481A (zh) * 2015-12-21 2016-05-04 百度在线网络技术(北京)有限公司 语音数据的韵律标注方法及装置
CN107039034A (zh) * 2016-02-04 2017-08-11 科大讯飞股份有限公司 一种韵律预测方法及系统
CN108305612A (zh) * 2017-11-21 2018-07-20 腾讯科技(深圳)有限公司 文本处理、模型训练方法、装置、存储介质和计算机设备
CN108305611A (zh) * 2017-06-27 2018-07-20 腾讯科技(深圳)有限公司 文本转语音的方法、装置、存储介质和计算机设备
CN110010136A (zh) * 2019-04-04 2019-07-12 北京地平线机器人技术研发有限公司 韵律预测模型的训练和文本分析方法、装置、介质和设备
CN110223671A (zh) * 2019-06-06 2019-09-10 标贝(深圳)科技有限公司 语言韵律边界预测方法、装置、系统和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136802B2 (en) * 2002-01-16 2006-11-14 Intel Corporation Method and apparatus for detecting prosodic phrase break in a text to speech (TTS) system
KR100590553B1 (ko) * 2004-05-21 2006-06-19 삼성전자주식회사 대화체 운율구조 생성방법 및 장치와 이를 적용한음성합성시스템
CN100524457C (zh) * 2004-05-31 2009-08-05 国际商业机器公司 文本至语音转换以及调整语料库的装置和方法
US10127901B2 (en) * 2014-06-13 2018-11-13 Microsoft Technology Licensing, Llc Hyper-structure recurrent neural networks for text-to-speech

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156990A (ja) * 2000-11-22 2002-05-31 Matsushita Electric Ind Co Ltd 中国語音声合成におけるポーズ継続時間処理方法及び装置
WO2012070228A1 (ja) * 2010-11-22 2012-05-31 日本電気株式会社 対話テキスト解析装置、方法およびプログラム
CN104050962A (zh) * 2013-03-16 2014-09-17 李军 基于语音合成技术的多功能阅读器
CN105551481A (zh) * 2015-12-21 2016-05-04 百度在线网络技术(北京)有限公司 语音数据的韵律标注方法及装置
CN107039034A (zh) * 2016-02-04 2017-08-11 科大讯飞股份有限公司 一种韵律预测方法及系统
CN108305611A (zh) * 2017-06-27 2018-07-20 腾讯科技(深圳)有限公司 文本转语音的方法、装置、存储介质和计算机设备
CN108305612A (zh) * 2017-11-21 2018-07-20 腾讯科技(深圳)有限公司 文本处理、模型训练方法、装置、存储介质和计算机设备
CN110010136A (zh) * 2019-04-04 2019-07-12 北京地平线机器人技术研发有限公司 韵律预测模型的训练和文本分析方法、装置、介质和设备
CN110223671A (zh) * 2019-06-06 2019-09-10 标贝(深圳)科技有限公司 语言韵律边界预测方法、装置、系统和存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Joint Discriminative Decoding of Words and Semantic Tags for Spoken Language Understanding;Anoop Deoras et al;《IEEE Transactions on Audio, Speech, and Language Processing》;20130404;全文 *
基于语法信息的汉语韵律结构预测;曹剑芬;《中文信息学报》;20030325(第03期);全文 *
语法信息与韵律结构的分析与预测;王永鑫等;《中文信息学报》;20100115(第01期);全文 *

Also Published As

Publication number Publication date
CN110853613A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111598216B (zh) 学生网络模型的生成方法、装置、设备及存储介质
CN110619867B (zh) 语音合成模型的训练方法、装置、电子设备及存储介质
CN110473516B (zh) 语音合成方法、装置以及电子设备
JP2023504219A (ja) 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法
KR102566277B1 (ko) 이미지 편집 모델 구축 방법 및 장치
CN111144115A (zh) 预训练语言模型获取方法、装置、电子设备和存储介质
CN110797005B (zh) 韵律预测方法、装置、设备和介质
CN110807331B (zh) 一种多音字读音预测方法、装置和电子设备
CN112001169B (zh) 文本纠错的方法、装置、电子设备和可读存储介质
CN110782871B (zh) 一种韵律停顿预测方法、装置以及电子设备
CN110297895B (zh) 一种基于自由文本知识的对话方法及系统
CN112861548B (zh) 自然语言生成及模型的训练方法、装置、设备和存储介质
KR20210156223A (ko) 기계 번역 모델의 훈련 방법, 장치, 전자기기 및 저장 매체
CN111127191B (zh) 风险评估方法及装置
KR20210158815A (ko) 트리플 샘플 생성 방법, 장치, 전자 기기 및 기록 매체
CN113723278A (zh) 表格信息提取模型的训练方法及装置
JP7337172B2 (ja) 音声パケット推薦方法、装置、電子機器およびプログラム
CN112528669A (zh) 多语言模型的训练方法、装置、电子设备和可读存储介质
KR20210122204A (ko) 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
CN110767212B (zh) 一种语音处理方法、装置和电子设备
CN115953645A (zh) 模型训练方法、装置、电子设备及存储介质
CN111967591A (zh) 神经网络自动剪枝方法、装置及电子设备
CN110853613B (zh) 韵律停顿等级预测的校正方法、装置、设备和介质
KR102517927B1 (ko) 언어 생성 방법, 장치 및 전자 기기

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant