CN109523988B - 一种文本演绎方法及装置 - Google Patents
一种文本演绎方法及装置 Download PDFInfo
- Publication number
- CN109523988B CN109523988B CN201811419918.4A CN201811419918A CN109523988B CN 109523988 B CN109523988 B CN 109523988B CN 201811419918 A CN201811419918 A CN 201811419918A CN 109523988 B CN109523988 B CN 109523988B
- Authority
- CN
- China
- Prior art keywords
- role
- character
- pronunciation
- text
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Abstract
本申请提供了一种文本演绎方法及装置,方法包括:获取目标文本,确定目标文本中所包含的角色以及每个角色对应的文本内容;针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象,一角色的属性特征能够表征该角色对应的发音特点;通过与各个角色匹配的发音对象对目标文本中各个角色对应的文本内容进行演绎。不同角色的文本内容由不同发音对象演绎,且每个角色对应的发音对象均基于该角色的属性特征匹配得到,使得本申请的文本演绎方式比较丰富,且每个发音对象与其对应的角色比较贴合,演绎过程极具感染力,用户体验较好。
Description
技术领域
本申请涉及数据处理技术领域,更具体地说,涉及一种文本演绎方法及装置。
背景技术
在某些情况下,需要将文本转换为自然语音,即,通过发音对象对文本进行演绎,比如,对于有视觉障碍的人、认知水平有限的儿童等,其可能无法阅读文本或者无法较好的阅读文本,若能将这些人群对于文本的视觉感知转换为听觉感觉,将大大便利这些人群。然而,现有技术中尚不存效果较好的文本演绎方案。
发明内容
有鉴于此,本申请提供了一种文本演绎方法及装置,用以提供一种效果较好的文本演绎方案,该方案如下:
一种文本演绎方法,包括:
获取目标文本,并确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象,一角色的属性特征能够表征该角色对应的发音特点;
通过所述与各个角色匹配的发音对象,对所述目标文本中各个角色对应的文本内容进行演绎。
可选的,所述确定所述目标文本中所包含的角色以及每个角色对应的文本内容,包括:
对所述目标文本的文本内容进行分句处理,并确定分句处理得到的多个句子分别对应的句法信息;
从所述多个句子中识别出满足预设条件的关键词,作为所述目标文本中所包含的角色;
根据所述多个句子分别对应的句法信息,确定所述每个角色对应的文本内容。
可选的,所述从所述多个句子中识别出满足预设条件的关键词,包括:
从所述多个句子中识别出满足以下一个或多个条件的关键词:
字数小于预设字数、词性为预设词性、在所述目标文本中出现的位置为预设位置、在所述目标文本中出现的频率大于预设频率。
可选的,所述根据所述多个句子分别对应的句法信息,确定所述每个角色对应的文本内容,包括:
针对任一句子,从该句子中确定用于引出说话内容的词和/或符号,并根据该句子的句法信息和所述用于引出说话内容的词或符号确定该句子对应的角色以及该角色对应的说话内容,以得到所述多个句子分别对应的角色和说话内容;
通过所述多个句子分别对应的角色和说话内容,获得所述每个角色对应的文本内容。
可选的,所述属性特征包括:性别特征、年龄特征、性格特征中的任意一种或多种。
可选的,基于该角色和该角色对应的文本内容确定该角色的性别特征,包括:
基于该角色本身确定该角色的性别特征;
若无法通过该角色本身确定该角色的性别特征,则进一步通过该角色对应的文本内容确定该角色的性别特征。
可选的,通过该角色对应的文本内容确定该角色的性别特征,包括:
从该角色对应的文本内容中提取与性别相关的词或短语;
基于所述与性别相关的词或短语确定该角色的性别特征。
可选的,基于该角色对应的文本内容确定该角色的年龄特征和/或性格特征,包括:
在该角色对应的文本内容中确定预设关系类型的句子,组成该角色对应的目标句子集合,其中,预设关系类型为定中关系和/或状中关系;
在该角色对应的目标句子集合中提取修饰词,组成该角色对应的修饰词集合;
通过该角色对应的修饰词集合确定该角色的年龄特征和/或性格特征。
可选的,所述通过该角色对应的修饰词集合确定该角色的性格特征,包括:
分别计算该角色对应的修饰词集合中各个修饰词与目标词的相似度,获得各个修饰词分别对于所述目标词的相似度,其中,所述目标词为预先设定的、用于表征性格的词;
通过所述各个修饰词分别对于所述目标词的相似度,确定该角色对于所述目标词的语义相似度,作为该角色的性格特征。
可选的,所述根据该角色的属性特征为该角色匹配发音对象,包括:
从发音对象库中确定出与该角色的性别特征相同的发音对象,组成该角色对应的目标发音对象集合;
通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,其中,所述发音参数能够表征发音对象的发音特点;
根据所述与该角色匹配的发音参数的值,从该角色对应的目标发音对象集合中确定与该角色匹配的发音对象。
可选的,所述通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,包括:
通过该角色的年龄特征和性格特征,确定该角色的至少两个目标参数的值,其中,一个目标参数为年龄,其余目标参数用于表征所述性格特征;
通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值。
可选的,所述通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值,包括:
通过所述发音参数确定模型的模糊化模块,将该角色的至少两个目标参数的值模糊化,以得到该角色的至少两个目标参数分别对应的模糊值;
通过所述发音参数确定模型的模糊推理模块,基于该角色的至少两个目标参数分别对应的模糊值和预先设置的模糊规则进行模糊推理,以得到所述发音参数对应的模糊值;
通过所述发音参数确定模型的解模糊模块,对所述发音参数对应的模糊值进行解模糊化,解模糊化得到的值作为与该角色匹配的发音参数的值。
一种文本演绎装置,包括:文本获取模块、角色及对应文本内容确定模块、属性特征确定模块、发音对象匹配模块和文本演绎模块;
所述文本获取模块,用于获取目标文本;
所述角色及对应文本内容确定模块,用于确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
所述属性特征确定模块,用于针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,以得到各个角色的属性特征,一角色的属性特征能够表征该角色的发音特点;
所述发音对象匹配模块,用于针对任一角色,根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象;
所述文本演绎模块,用于通过所述与各个角色匹配的发音对象,对所述目标文本中各个角色对应的文本内容进行演绎。
一种文本演绎设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现所述文本演绎方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现所述文本演绎方法的各个步骤。
经由上述方案可知,本申请提供的文本演绎方法、装置、设备及存储介质,在获取到目标文本后,首先按角色将目标文本的文本内容进行划分,经划分可获得目标文本中所包含的角色以及每个角色对应的文本内容,然后基于每个角色对应的文本内容确定每个角色的属性特征,进而根据每个角色的属性特征为每个角色匹配发音对象,从而得到与各个角色匹配的发音对象,最后通过与各个角色匹配的发音对象对目标文本中各个角色对应的文本内容进行演绎。由此可见,本申请提供的文本演绎方法可根据每个角色的属性特征为其匹配发音对象,进而通过匹配的发音对象对对应的文本内容进行演绎,由于不同角色的文本内容由不同发音对象演绎,并且,每个角色对应的发音对象均基于该角色的属性特征匹配得到,因此,本申请的文本演绎方式比较丰富,且每个发音对象与其对应的角色比较贴合,演绎过程极具感染力,用户体验较好。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的文本演绎方法的流程示意图;
图2为本申请实施例提供的文本演绎方法中,确定目标文本中所包含的角色以及每个角色对应的文本内容的实现过程的流程示意图;
图3为本申请实施例提供的文本演绎方法中,基于该角色对应的文本内容确定该角色的年龄特征和/或性格特征的流程示意图;
图4为本申请实施例的文本演绎方法中,据该角色的属性特征为该角色匹配发音对象的流程示意图;
图5为本申请实施例的文本演绎方法中,通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的实现过程的流程示意图;
图6为本申请实施例提供的文本演绎装置的结构示意图;
图7为本申请实施例提供的文本演绎设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了实现文本演绎,本案发明人进行了深入研究:
起初的思路是:通过一发音对象对目标文本的所有文本内容进行演绎,但发明人发现,这种文本演绎方式存在如下缺陷:
一些文本中可能会有多个角色,每个角色均对应有文本内容(即说话内容),若多个角色对应的文本内容均由一发音对象演绎,用户听到的是单一发音对象的声音,感觉比较单调,缺乏感染力和丰富性,用户体验不佳。
鉴于上述文本演绎方案效果不佳,本案发明人继续进行深入研究,最终提出了一种解决方案,完美解决了上述研发过程中的问题。接下来通过下述实施例对本申请提供的文本演绎方法进行介绍。
请参阅图1,示出了本申请实施例提供的文本演绎方法的流程示意图,该方法可以包括:
步骤S101:获取目标文本。
其中,目标文本可以为包括一个或多个角色的说话内容的文本,该文本可以但不限为故事文本、会议记录文本、辩论记录文本等,只要是包括一个或多个说话人的说话内容的文本均属于本申请中的目标文本。需要说明的是,一个说话人即为一个角色。
步骤S102:确定目标文本中所包含的角色以及每个角色对应的文本内容。
本步骤的目的有两个,其一,确定出目标文本中所包含的角色,其二,基于角色对目标文本的文本内容进行划分,从而获得目标文本中每个角色对应的文本内容。
步骤S103:针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象。
其中,一角色的属性特征能够表征该角色对应的发音特点,属性特征可以包括性别特征、年龄特征、性格特征中的任意一种或多种。一角色对应的发音对象用于对该角色对应的文本内容进行演绎。
步骤S104:通过与各个角色匹配的发音对象对目标文本中各个角色对应的文本内容进行演绎。
本申请实施例提供的文本演绎方法,在获取到目标文本后,首先按角色将目标文本的文本内容进行划分,经划分可获得目标文本中所包含的角色以及每个角色对应的文本内容,然后基于每个角色对应的文本内容确定每个角色的属性特征,进而根据每个角色的属性特征为每个角色匹配发音对象,从而得到与各个角色匹配的发音对象,最后通过与各个角色匹配的发音对象对目标文本中各个角色对应的文本内容进行演绎。由此可见,本申请实施例提供的文本演绎方法可根据每个角色的属性特征为其匹配发音对象,进而通过匹配的发音对象对对应的文本内容进行演绎,由于不同角色的文本内容由不同发音对象演绎,并且,任一角色对应的发音对象均基于该角色的属性特征确定,因此,本申请的文本演绎方式比较丰富,且每个发音对象与其对应的角色比较贴合,演绎过程极具感染力,用户体验较好。
在本申请的另一实施例中,对上述实施例中的“步骤S102:确定目标文本中所包含的角色以及每个角色对应的文本内容”进行介绍。
请参阅图2,示出了确定目标文本中所包含的角色以及每个角色对应的文本内容的实现过程的流程示意图,可以包括:
步骤S201:对目标文本进行分句处理,并确定分句处理得到的多个句子分别对应的句法信息。
具体的,可基于目标文本中的分隔符将目标文本的文本内容分割为多个句子,其中,分隔符可以但不限定为逗号、句号、分号等符号。
在将目标文本的文本内容分割为多个句子后,可确定每个句子对应的句法信息,一个句子对应的句法信息包括该句子中每个词的词性、前后词的关系、句子的结构(如主谓宾)等信息,一个句子对应的句法信息可通过一句法分析树表征。
步骤S202:从多个句子中识别出满足预设条件的关键词作为目标文本中所包含的角色。
具体的,从目标文本中识别出满足预设条件的关键词的过程包括:从目标文本中识别出满足以下一个或多个条件的关键词:字数小于预设字数、词性为预设词性、在目标文本中出现的位置为预设位置、在目标文本中出现的频率大于预设频率。
可以理解的是,角色的名字一般不会过长,因此,本实施例通过设定字数条件将明显不是角色的名字的关键词排除,从而将可能为角色的名字的关键词筛选出来。角色的名字通常是名词,因此,通过词性可筛选出一些可能为角色的名字的关键词,比如,可从目标文本中筛选出词性为名词的词和/或形容词+名词的短语。再者,角色的名称第一次出现的位置一般为文本开头的位置,因此,可基于词出现的位置筛选可能为角色的名字的关键词,另外,主要角色的名字在文本中出现的频率通常较高,因此,可基于词出现的频率筛选可能为角色的名字的关键词。
步骤S203:根据多个句子分别对应的句法信息确定每个角色对应的文本内容。
在本实施例中,根据多个句子分别对应的句法信息确定每个角色对应的文本内容的过程可以包括:针对任一句子,从该句子中确定用于引出说话内容的词和/或符号,根据该句子的句法信息和用于引出说话内容的词或符号确定该句子对应的角色以及该角色对应的说话内容,以得到多个句子分别对应的角色和说话内容;通过多个句子分别对应的角色和说话内容,获得每个角色对应的文本内容。
其中,用于引出说话内容的词可以但不限定为“说”、“想”、“道”等词,用于引出说话内容的符号可以但不限为冒号、双引号等,在确定出用于引出说话内容的词和/或符号后,可基于用于引出说话内容的词和/或符号确定说话内容,说话内容对应的主语即为角色,说话内容对应的主语可基于句子的句法信息确定。
在获得目标文本中多个句子分别对应的角色和说话内容后,将同一角色的说话内容进行整合,便可得到与每个角色对应的文本内容,每个角色对应的文本内容为一句子集合。
在本申请的另一实施例中,对上述实施例中的步骤S103中的“基于该角色和/或该角色对应的文本内容确定该角色的属性特征”进行介绍。
鉴于属性特征可以包括性别特征、年龄特征、性格特征中的任意一种或多种,以下分别对确定该角色的性别特征、年龄特征、性格特征的实现过程进行介绍。
在本实施例中,确定该角色的性别特征的实现方式有多种。在一种可能的实现方式中,可直接基于该角色对应的文本内容确定该角色的性别特征;考虑到基于该角色对应的文本内容确定该角色的性别特征时,需要对该角色的文本内容进行分析,而分析过程耗时相对较长,为了提高性别特征的确定效率,在另一种较优选的实现方式中,可先基于该角色本身确定该角色的性别特征,若无法通过角色本身确定该角色的性别特征,再进一步基于该角色对应的文本内容确定该角色的性别特征。
其中,基于该角色本身确定该角色的性别特征的过程可以包括:基于该角色以及预先存储的角色与性别特征的对应关系确定该角色的性别特征,具体的,在预先存储的角色与性别特征的对应关系中查找该角色,若查找到该角色,则将对应关系中与该角色对应的性别特征确定为该角色的性别特征。示例性的,预先存储的角色与性别特征的对应关系如下表所示:
表1 角色与性别特征的对应关系
角色 | 性别特征 |
国王 | 男 |
王后 | 女 |
王子 | 男 |
公主 | 女 |
……. | ……. |
若该角色为国王,在表1中的角色中查询,经查询发现,表1中存在国王这一角色,进一步从表1中获取与国王这一角色对应的性别特征,与国王对应的性别特征为男,则可获得国王这一角色的性别特征为男。若表1中不存在国王这一角色,则进一步基于该角色对应的文本内容确定该角色的性别特征。
以下对基于该角色对应的文本内容确定该角色的性别特征的实现过程进行介绍。
基于该角色对应的文本内容确定该角色的性别特征的过程可以包括:首先从该角色对应的文本内容中提取与性别相关的词或短语;然后基于与性别相关的词或短语确定该角色的性别特征。
需要说明的是,该角色对应的文本内容包括多个句子,在提取与性别相关的词或短语时,分别从各个句子中进行提取。
在获得与性别相关的词或短语后,可使用word2vec模型分别计算提取到的各个词或短语与男/女的相似度,然后使用支持向量机SVM对各个词或短语与男/女的相似度进行分类,分布概率最大的类作为该角色的性别特征,即,若分布概率最大的类为男,则该角色的性别特征为男,若分布概率最大的类为女,则该角色的性别特征为女。
以下对确定该角色的年龄特征、性格特征的确定过程进行介绍。在本实施例中,该角色的年龄特征、性格特征均可基于该角色对应的文本内容确定。
请参阅图3,示出了基于该角色对应的文本内容确定该角色的年龄特征和/或性格特征的流程示意图,可以包括:
步骤S301:在该角色对应的文本内容中确定预设关系类型的句子,组成该角色对应的目标句子集合。
其中,预设关系类型可以为定中关系和/或状中关系。示例性的,“红苹果”为定中关系,“非常美丽”为状中关系。
步骤S302:在目标句子集合中提取修饰词,组成该角色对应的修饰词集合。
其中,修饰词位于名词前,其后常出现“的”字,其通常为形容词、名词、介词,可基于此从目标句子集合中提取修饰词。
步骤S303:通过该角色对应的修饰词集合确定该角色的年龄特征和/或性格特征。
其中,通过该角色对应的修饰词集合确定该角色的年龄特征的过程可以包括:将该角色对应的修饰词集合中的修饰词向量化,获得各个修饰词对应的词向量,然后将各个词对应的词向量输入预先建立的分类模型或回归模型,获得该角色的年龄特征。
其中,通过该角色对应的修饰词集合确定该角色的性格特征的过程可以包括:分别计算该角色对应的修饰词集合中各个修饰词与目标词的相似度,获得该角色对应的修饰词集合中各个修饰词对于目标词的相似度,其中,目标词为预先设定的、用于表征性格的词,比如,善良、乐观积极等;通过该角色对应的修饰词集合中各个修饰词对于目标词的相似度,确定该角色对于目标词的语义相似度,作为该角色的性格特征。具体的,可将各个修饰词对于目标词的相似度进行高斯分布,以获得期望,获得的期望可作为该角色对于目标词的语义相似度。
需要说明的是,预先设定的、用于表征性格的词即目标词可以为一个也可以为多个,若目标词为多个,则在计算相似度时,需要分别针对各个目标词进行计算,比如,目标词包括“善良”、“积极乐观”,则需要计算该角色对应的修饰词集合中各个修饰词与“善良”的相似度,以及,该角色对应的修饰词集合中各个修饰词与“积极乐观”的相似度,然后将各个修饰词与“善良”的相似度进行高斯分布,基于高斯分布获得的期望作为该角色对于“善良”的语义相似度,同样地,将各个修饰词与“积极乐观”的相似度进行高斯分布,基于高斯分布获得的期望作为该角色相对于“积极乐观”的语义相似度。
在本申请的另一实施例中,对上述实施例中的步骤S103中的“根据该角色的属性特征为该角色匹配发音对象”进行介绍。
请参阅图4,示出了根据该角色的属性特征为该角色匹配发音对象的实现过程的流程示意图,可以包括:
步骤S401:从发音对象库中确定出与该角色的性别特征相同的发音对象,组成该角色对应的目标发音对象集合。
在一种可能的实现方式中,可预先设置两个发音对象库,其中一个发音对象库中的发音对象的性别特征均为男,另一个发音对象库中的发音对象的性别特征均为女,在获得该角色的性别特征后,从两个发音对象库中选择与该角色的性别特征相同的发音对象库,选取的发音对象库中的发音对象组成的集合作为目标发音对象集合。
步骤S402:通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,作为目标发音参数值。
其中,发音参数能够表征发音人的发音特点,具体的,发音参数可以包括音调和音色。
通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的具体实现过程请参见后续实施例的说明。
步骤S403:根据目标发音参数值,从该角色对应的目标发音对象集合中确定与该角色匹配的发音对象。
该角色对应的目标发音对象集合中的每个发音对象均对应一发音参数值,与该角色匹配的发音对象可以为发音参数值与目标发音参数值相同的发音对象,或者,发音参数值与目标发音参数值最接近的发音对象。
在本申请的另一实施例中,对“步骤S402:通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值”进行介绍。
通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值的过程可以包括:通过该角色的年龄特征和性格特征,确定该角色的至少两个目标参数的值,其中,一个目标参数为年龄,其余目标参数用于表征性格特征;通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值。在一种可能的实现方式中,发音参数确定模型优选为模糊神经网络。模糊神经网络的输入为该角色的至少两个参数的值。
示例性地,在确定一角色的性格特征时,预先设定的、用于表征性格的词即目标词为“善良”和“乐观积极”,则可通过该角色的年龄特征和性格特征确定三个目标参数的值,三个目标参数分别为年龄、善良程度和情绪基调(即乐观积极),其中,善良程度和情绪基调用于表征性格特征,在确定出年龄、善良程度和情绪基调的值后,将年龄、善良程度和情绪基调的值作为模糊神经网络的输入。
请参阅图5,示出了通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的实现过程的流程示意图,可以包括:
步骤S501:通过发音参数确定模型的模糊化模块,将该角色的至少两个目标参数的值模糊化,以得到该角色的至少两个目标参数分别对应的模糊值。
具体地,对于每一目标参数,基于该目标参数对应的等级集合和论域,通过该参数的值和预设的隶属度函数,确定该目标参数的值对于等级集合中每个等级的隶属度,作为该目标参数对应的模糊值。
示例性的,该角色的至少两个参数包括:年龄、善良程度和情绪基调,对于年龄这一参数而言,其对应的等级集合中可包括四个年龄等级,分别为儿童(S)、青年(M)、中年(L)、老年(XL),其对应的论域为{-2,-1,0,1},需要说明的是,[-2,-1)这一范围的值所属的年龄等级为儿童(S),[-1,0)这一范围的值所属的年龄等级为青年(M),[0,1)这一范围的值所属的年龄等级为中年(L),大于等于1的值所属的年龄等级为老年(XL),基于各个年龄等级对应的范围,通过该角色的年龄的值和预设的隶属度函数,可确定该角色的年龄的值对于各个年龄等级的隶属度。
同样的,对于善良程度这一参数而言,假设其对应的等级集合中包括三个等级,分别为善良(NS)、人品中立(NM)、邪恶(NL),其对应的论域为{-1,0,1},需要说明的是,[-1,0)这一范围内的值所属的善良程度等级为善良(NS),[0,1)这一范围内的值所属的善良程度等级为人品中立(NM),大于等于1的值所属的善良程度等级为邪恶(NL),基于各个善良程度等级对应的范围,通过该角色的善良程度的值和预设的隶属度函数,可确定该角色的善良程度的值对于各个善良程度等级的隶属度。
同样地,对于情绪基调这一参数而言,假设其对应的等级集合中包括三个等级,分别为积极(MS)、普通(MM)、消极(ML),其对应的论域为{-1,0,1},需要说明的是,[-1,0)这一范围内的值所属的等级为积极(MS),[0,1)这一范围内的值所属的等级为普通(MM),大于等于1的值所属的等级为消极(ML),基于各个情绪基调等级对应的范围,通过该角色的情绪基调的值和预设的隶属度函数,可确定该角色的情绪基调的值对于各个情绪基调等级的隶属度。
步骤S502:通过发音参数确定模型的模糊推理模块,基于该角色的至少两个目标参数分别对应的模糊值和预先设置的模糊规则进行模糊推理,得到发音参数对应的模糊值。
其中,模糊规则可基于至少两个目标参数与发音参数的关系设定。
示例性的,至少两个目标参数包括上述的年龄、善良程度和情绪基调,发音参数包括音调和音色,则可基于如下两种思路设定模糊规则:
(1)音调的选择:根据角色的年龄和善良程度确定与该角色匹配的音调,例如,儿童的音调相对较高,邪恶的角色音调相对较低,音调通过基频高低来表示。
(2)音色的选择:根据角色年龄和情绪基调确定与该角色匹配的音色。通常而言,共振峰出现的频率高低代表音色高低,共振峰出现的频率高,表明音色明亮,反之,共振峰出现的频率低,表明音色暗淡。
将上述两种思路结合起来,可设定36条规则:
IF X=S AND Y=NS AND Z=MS,THEN T=BL,W=HL;
……
步骤S503:通过发音参数确定模型的解模糊模块,对发音参数对应的模糊值进行解模糊化,解模糊化得到的值作为与该角色匹配的发音参数的值。
示例性的,发音参数包括音调和音色两个参数,音调和音色均对应有等级集合和论域,假设音调对应的等级集合包括6个等级,分别为很低(RB)、较低(RM)、正常偏低(RS)、正常偏高(BS)、较高(BM),音调对应的论域为{-2,-1,0,1,2,3},音调对应的模糊值为音调的值对于各个音调等级的隶属度,优选地,对音调对应的模糊值进行解模糊化的过程具体为对最大隶属度进行解模糊化,对最大隶属度解模糊化后得到的值即为与该角色匹配的音调的值。假设音色对应的等级集合中包括6个音色等级,分别为很低(HB)、较低(HM)、正常偏低(HS)、正常偏高(HS)、较高(HM)、很高(HL),音色对应的论域为{-2,-1,0,1,2,3},则音色对应的模糊值为音色的值对于各个音色等级的隶属度,对各个隶属度中的最大隶属度进行解模糊化便可获得与该角色匹配的音色的值。
在一具体实例中,上述发音参数确定模型的拓扑结构可包括:输入层、模糊化层、模糊推理层、规则强化层和输出层。对于一角色而言,发音参数确定模型的输入层用于输入该角色的至少两个目标参数的值,比如年龄、善良程度和情绪基调的值;发音参数确定模型的模糊化层用于对该角色的至少两个目标参数的值进行模糊化,输出该角色的至少两个目标参数分别对应的模糊值,发音参数确定模型的模糊推理层,用于基于预设的模糊规则对模糊化层输出的、该角色的至少两个参数分别对应的模糊值进行模糊推理,输出发音参数(如音调和音色)对应的第一模糊值以及每条规则的适用度即权值,规则强化层用于基于模糊推理层输出的第一模糊值和权值强化模糊规则,从而输出发音参数(如音调和音色)对应的第二模糊值,输出层用于对发音参数对应的第二模糊值进行解模糊化,得到与该角色匹配的发音参数的值(通过基频表征的音调和通过共振峰出现的频率表征的音色)。
本申请实施例提供的文本演绎方法可根据每个角色的属性特征为其匹配发音对象,进而通过匹配的发音对象对对应的文本内容进行演绎,由于不同角色的文本内容由不同发音对象演绎,并且,每个角色对应的发音对象均基于该角色的属性特征匹配得到,因此,本申请提供的文本演绎方式比较丰富,且每个发音对象与其对应的角色比较贴合,演绎过程极具感染力,用户体验较好。
本申请实施例还提供了一种文本演绎装置,下面对本申请实施例提供的文本演绎装置进行描述,下文描述的文本演绎装置与上文描述的文本演绎方法可相互对应参照。
请参阅图6,示出了本申请实施例提供的一种文本演绎装置的结构示意图,如图6所示,该装置可以包括:文本获取模块601、角色及对应文本内容确定模块602、属性特征确定模块603、发音对象匹配模块604和文本演绎模块605。
文本获取模块601,用于获取目标文本。
角色及对应文本内容确定模块602,用于确定所述目标文本中所包含的角色以及每个角色对应的文本内容。
属性特征确定模块603,用于针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,以得到各个角色的属性特征,一角色的属性特征能够表征该角色的发音特点。
发音对象匹配模块604,用于针对任一角色,根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象。
文本演绎模块605,用于通过所述与各个角色匹配的发音对象,对所述目标文本中各个角色对应的文本内容进行演绎。
本申请实施例提供的文本演绎装置,在获取到目标文本后,首先按角色将目标文本的文本内容进行划分,经划分可获得目标文本中所包含的角色以及每个角色对应的文本内容,然后基于每个角色对应的文本内容确定每个角色的属性特征,进而根据每个角色的属性特征为每个角色匹配发音对象,从而得到与各个角色匹配的发音对象,最后通过与各个角色匹配的发音对象对目标文本中各个角色对应的文本内容进行演绎。由此可见,本申请提供的文本演绎装置可根据每个角色的属性特征为其匹配发音对象,进而通过匹配的发音对象对对应的文本内容进行演绎,由于不同角色的文本内容由不同发音对象演绎,并且,每个角色对应的发音对象均基于该角色的属性特征匹配得到,因此,本申请的文本演绎方式比较丰富,且每个发音对象与其对应的角色比较贴合,演绎过程极具感染力,用户体验较好。
在一种可能的实现方式中,上述实施例提供的文本演绎装置中,角色及对应文本内容确定模块602可以包括:分句处理子模块、句法信息确定子模块、角色确定子模块和文本内容确定子模块。
分句处理子模块,用于对所述目标文本的文本内容进行分句处理。
句法信息确定子模块,用于确定分句处理得到的多个句子分别对应的句法信息。
角色确定子模块,用于从所述多个句子中识别出满足预设条件的关键词,作为所述目标文本中所包含的角色。
文本内容确定子模块,用于根据所述多个句子分别对应的句法信息,确定所述每个角色对应的文本内容。
在一种可能的实现方式中,角色确定子模块,具体用于从所述多个句子中识别出满足以下一个或多个条件的关键词:
字数小于预设字数、词性为预设词性、在所述目标文本中出现的位置为预设位置、在所述目标文本中出现的频率大于预设频率。
在一种可能的实现方式中,文本内容确定子模块,具体用于针对任一句子,从该句子中确定用于引出说话内容的词和/或符号,并根据该句子的句法信息和所述用于引出说话内容的词或符号确定该句子对应的角色以及该角色对应的说话内容,以得到所述多个句子分别对应的角色和说话内容;
通过所述多个句子分别对应的角色和说话内容,获得所述每个角色对应的文本内容。
在一种可能的实现方式中,属性特征确定模块603确定的属性特征可以包括:性别特征、年龄特征、性格特征中的任意一种或多种。
在一种可能的实现方式中,上述实施例提供的文本演绎装置中,属性特征确定模块603,具体用于基于该角色本身确定该角色的性别特征;若无法通过该角色本身确定该角色的性别特征,则进一步通过该角色对应的文本内容确定该角色的性别特征。
在一种可能的实现方式中,上述实施例提供的文本演绎装置中,属性特征确定模块603,具体用于从该角色对应的文本内容中提取与性别相关的词或短语;基于所述与性别相关的词或短语确定该角色的性别特征。
在一种可能的实现方式中,上述实施例提供的文本演绎装置中,属性特征确定模块603,具体用于在该角色对应的文本内容中确定预设关系类型的句子,组成该角色对应的目标句子集合,其中,预设关系类型为定中关系和/或状中关系;在该角色对应的目标句子集合中提取修饰词,组成该角色对应的修饰词集合;通过该角色对应的修饰词集合确定该角色的年龄特征和/或性格特征。
在一种可能的实现方式中,属性特征确定模块603在通过该角色对应的修饰词集合确定该角色的性格特征时,具体用于分别计算该角色对应的修饰词集合中各个修饰词与目标词的相似度,获得各个修饰词分别对于所述目标词的相似度,其中,所述目标词为预先设定的、用于表征性格的词;通过所述各个修饰词分别对于所述目标词的相似度,确定该角色对于所述目标词的语义相似度,作为该角色的性格特征。
在一种可能的实现方式中,上述实施例提供的文本演绎装置中的发音对象匹配模块604包括:目标发音对象集合确定子模块、发音参数确定子模块和发音对象确定子模块。
目标发音对象集合确定子模块,用于从发音对象库中确定出与该角色的性别特征相同的发音对象,组成该角色对应的目标发音对象集合;
发音参数确定子模块,用于通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值。
其中,所述发音参数能够表征发音对象的发音特点。
发音对象确定子模块,用于根据所述与该角色匹配的发音参数的值,从该角色对应的目标发音对象集合中确定与该角色匹配的发音对象。
在一种可能的实现方式中,发音参数确定子模块,具体用于通过该角色的年龄特征和性格特征,确定该角色的至少两个目标参数的值,其中,一个目标参数为年龄,其余目标参数用于表征所述性格特征;通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值。
在一种可能的实现方式中,发音参数确定子模块在所述通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值时,具体用于通过所述发音参数确定模型的模糊化模块,将该角色的至少两个目标参数的值模糊化,以得到该角色的至少两个目标参数分别对应的模糊值;通过所述发音参数确定模型的模糊推理模块,基于该角色的至少两个目标参数分别对应的模糊值和预先设置的模糊规则进行模糊推理,以得到所述发音参数对应的模糊值;通过所述发音参数确定模型的解模糊模块,对所述发音参数对应的模糊值进行解模糊化,解模糊化得到的值作为与该角色匹配的发音参数的值。
本申请实施例还提供了一种文本演绎设备,请参阅图7,示出了该文本演绎设备的结构示意图,该设备可以包括:至少一个处理器701,至少一个通信接口702,至少一个存储器703和至少一个通信总线704;
在本申请实施例中,处理器701、通信接口702、存储器703、通信总线704的数量为至少一个,且处理器701、通信接口702、存储器703通过通信总线704完成相互间的通信;
处理器701可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器703可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取目标文本,并确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象,一角色的属性特征能够表征该角色对应的发音特点;
通过所述与各个角色匹配的发音对象对所述目标文本中各个角色对应的文本内容进行演绎。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取目标文本,并确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象,一角色的属性特征能够表征该角色对应的发音特点;
通过所述与各个角色匹配的发音对象对所述目标文本中各个角色对应的文本内容进行演绎。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种文本演绎方法,其特征在于,包括:
获取目标文本,并确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,并根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象,一角色的属性特征能够表征该角色对应的发音特点;
通过所述与各个角色匹配的发音对象,对所述目标文本中各个角色对应的文本内容进行演绎;
其中,所述根据该角色的属性特征为该角色匹配发音对象,包括:
通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,其中,所述发音参数能够表征发音对象的发音特点;
根据所述与该角色匹配的发音参数的值,从发音对象库中确定与该角色匹配的发音对象;
所述通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,包括:
通过该角色的年龄特征和性格特征,确定该角色的至少两个目标参数的值,其中,一个目标参数为年龄,其余目标参数用于表征所述性格特征;
通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值。
2.根据权利要求1所述的文本演绎方法,其特征在于,所述确定所述目标文本中所包含的角色以及每个角色对应的文本内容,包括:
对所述目标文本的文本内容进行分句处理,并确定分句处理得到的多个句子分别对应的句法信息;
从所述多个句子中识别出满足预设条件的关键词,作为所述目标文本中所包含的角色;
根据所述多个句子分别对应的句法信息,确定所述每个角色对应的文本内容。
3.根据权利要求2所述的文本演绎方法,其特征在于,所述从所述多个句子中识别出满足预设条件的关键词,包括:
从所述多个句子中识别出满足以下一个或多个条件的关键词:
字数小于预设字数、词性为预设词性、在所述目标文本中出现的位置为预设位置、在所述目标文本中出现的频率大于预设频率。
4.根据权利要求2所述的文本演绎方法,其特征在于,所述根据所述多个句子分别对应的句法信息,确定所述每个角色对应的文本内容,包括:
针对任一句子,从该句子中确定用于引出说话内容的词和/或符号,并根据该句子的句法信息和所述用于引出说话内容的词或符号确定该句子对应的角色以及该角色对应的说话内容,以得到所述多个句子分别对应的角色和说话内容;
通过所述多个句子分别对应的角色和说话内容,获得所述每个角色对应的文本内容。
5.根据权利要求1所述的文本演绎方法,其特征在于,所述属性特征包括:性别特征、年龄特征、性格特征中的任意一种或多种。
6.根据权利要求5所述的文本演绎方法,其特征在于,基于该角色和该角色对应的文本内容确定该角色的性别特征,包括:
基于该角色本身确定该角色的性别特征;
若无法通过该角色本身确定该角色的性别特征,则进一步通过该角色对应的文本内容确定该角色的性别特征。
7.根据权利要求5所述的文本演绎方法,其特征在于,通过该角色对应的文本内容确定该角色的性别特征,包括:
从该角色对应的文本内容中提取与性别相关的词或短语;
基于所述与性别相关的词或短语确定该角色的性别特征。
8.根据权利要求5所述的文本演绎方法,其特征在于,基于该角色对应的文本内容确定该角色的年龄特征和/或性格特征,包括:
在该角色对应的文本内容中确定预设关系类型的句子,组成该角色对应的目标句子集合,其中,预设关系类型为定中关系和/或状中关系;
在该角色对应的目标句子集合中提取修饰词,组成该角色对应的修饰词集合;
通过该角色对应的修饰词集合确定该角色的年龄特征和/或性格特征。
9.根据权利要求8所述的文本演绎方法,其特征在于,所述通过该角色对应的修饰词集合确定该角色的性格特征,包括:
分别计算该角色对应的修饰词集合中各个修饰词与目标词的相似度,获得各个修饰词分别对于所述目标词的相似度,其中,所述目标词为预先设定的、用于表征性格的词;
通过所述各个修饰词分别对于所述目标词的相似度,确定该角色对于所述目标词的语义相似度,作为该角色的性格特征。
10.根据权利要求1所述的文本演绎方法,其特征在于,所述根据所述与该角色匹配的发音参数的值,从发音对象库中确定与该角色匹配的发音对象,包括:
从发音对象库中确定出与该角色的性别特征相同的发音对象,组成该角色对应的目标发音对象集合;
根据所述与该角色匹配的发音参数的值,从该角色对应的目标发音对象集合中确定与该角色匹配的发音对象。
11.根据权利要求1所述的文本演绎方法,其特征在于,所述通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值,包括:
通过所述发音参数确定模型的模糊化模块,将该角色的至少两个目标参数的值模糊化,以得到该角色的至少两个目标参数分别对应的模糊值;
通过所述发音参数确定模型的模糊推理模块,基于该角色的至少两个目标参数分别对应的模糊值和预先设置的模糊规则进行模糊推理,以得到所述发音参数对应的模糊值;
通过所述发音参数确定模型的解模糊模块,对所述发音参数对应的模糊值进行解模糊化,解模糊化得到的值作为与该角色匹配的发音参数的值。
12.一种文本演绎装置,其特征在于,包括:文本获取模块、角色及对应文本内容确定模块、属性特征确定模块、发音对象匹配模块和文本演绎模块;
所述文本获取模块,用于获取目标文本;
所述角色及对应文本内容确定模块,用于确定所述目标文本中所包含的角色以及每个角色对应的文本内容;
所述属性特征确定模块,用于针对任一角色,基于该角色和/或该角色对应的文本内容确定该角色的属性特征,以得到各个角色的属性特征,一角色的属性特征能够表征该角色的发音特点;
所述发音对象匹配模块,用于针对任一角色,根据该角色的属性特征为该角色匹配发音对象,以得到与各个角色匹配的发音对象;
所述文本演绎模块,用于通过所述与各个角色匹配的发音对象,对所述目标文本中各个角色对应的文本内容进行演绎;
其中,所述发音对象匹配模块在根据该角色的属性特征为该角色匹配发音对象时,具体用于通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值,根据所述与该角色匹配的发音参数的值,从发音对象库中确定与该角色匹配的发音对象,其中,所述发音参数能够表征发音对象的发音特点;
所述发音对象匹配模块在通过该角色的年龄特征和/或性格特征,确定与该角色匹配的发音参数的值时,具体用于通过该角色的年龄特征和性格特征,确定该角色的至少两个目标参数的值,通过预先建立的发音参数确定模型以及该角色的至少两个目标参数的值,确定与该角色匹配的发音参数的值,其中,一个目标参数为年龄,其余目标参数用于表征所述性格特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811419918.4A CN109523988B (zh) | 2018-11-26 | 2018-11-26 | 一种文本演绎方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811419918.4A CN109523988B (zh) | 2018-11-26 | 2018-11-26 | 一种文本演绎方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109523988A CN109523988A (zh) | 2019-03-26 |
CN109523988B true CN109523988B (zh) | 2021-11-05 |
Family
ID=65794501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811419918.4A Active CN109523988B (zh) | 2018-11-26 | 2018-11-26 | 一种文本演绎方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523988B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523986B (zh) | 2018-12-20 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 语音合成方法、装置、设备以及存储介质 |
CN111866582A (zh) * | 2019-04-26 | 2020-10-30 | 广州声活圈信息科技有限公司 | 一种用户匹配对手戏的演绎秀及演绎秀合成方法 |
CN110399461A (zh) * | 2019-07-19 | 2019-11-01 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、服务器及存储介质 |
CN110634336A (zh) * | 2019-08-22 | 2019-12-31 | 北京达佳互联信息技术有限公司 | 有声电子书生成方法及装置 |
CN110534131A (zh) * | 2019-08-30 | 2019-12-03 | 广州华多网络科技有限公司 | 一种音频播放方法及系统 |
CN112908292B (zh) * | 2019-11-19 | 2023-04-07 | 北京字节跳动网络技术有限公司 | 文本的语音合成方法、装置、电子设备及存储介质 |
CN112434492B (zh) * | 2020-10-23 | 2021-10-15 | 北京百度网讯科技有限公司 | 文本标注方法、装置及电子设备 |
CN113010138B (zh) * | 2021-03-04 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 文章的语音播放方法、装置、设备及计算机可读存储介质 |
CN113850291B (zh) * | 2021-08-18 | 2023-11-24 | 北京百度网讯科技有限公司 | 文本处理及模型训练方法、装置、设备和存储介质 |
CN113850290B (zh) * | 2021-08-18 | 2022-08-23 | 北京百度网讯科技有限公司 | 文本处理及模型训练方法、装置、设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003091295A (ja) * | 2001-09-18 | 2003-03-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声合成方法及びその装置並びに音声合成プログラム |
CN105096932A (zh) * | 2015-07-14 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 有声读物的语音合成方法和装置 |
CN106156365A (zh) * | 2016-08-03 | 2016-11-23 | 北京智能管家科技有限公司 | 一种知识图谱的生成方法及装置 |
CN108091321A (zh) * | 2017-11-06 | 2018-05-29 | 芋头科技(杭州)有限公司 | 一种语音合成方法 |
CN108182232A (zh) * | 2017-12-27 | 2018-06-19 | 掌阅科技股份有限公司 | 基于电子书的人物展示方法、电子设备及计算机存储介质 |
CN108231059A (zh) * | 2017-11-27 | 2018-06-29 | 北京搜狗科技发展有限公司 | 处理方法和装置、用于处理的装置 |
CN108470024A (zh) * | 2018-03-12 | 2018-08-31 | 北京灵伴即时智能科技有限公司 | 一种融合句法语义语用信息的汉语韵律结构预测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359473A (zh) * | 2007-07-30 | 2009-02-04 | 国际商业机器公司 | 自动进行语音转换的方法和装置 |
-
2018
- 2018-11-26 CN CN201811419918.4A patent/CN109523988B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003091295A (ja) * | 2001-09-18 | 2003-03-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声合成方法及びその装置並びに音声合成プログラム |
CN105096932A (zh) * | 2015-07-14 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 有声读物的语音合成方法和装置 |
CN106156365A (zh) * | 2016-08-03 | 2016-11-23 | 北京智能管家科技有限公司 | 一种知识图谱的生成方法及装置 |
CN108091321A (zh) * | 2017-11-06 | 2018-05-29 | 芋头科技(杭州)有限公司 | 一种语音合成方法 |
CN108231059A (zh) * | 2017-11-27 | 2018-06-29 | 北京搜狗科技发展有限公司 | 处理方法和装置、用于处理的装置 |
CN108182232A (zh) * | 2017-12-27 | 2018-06-19 | 掌阅科技股份有限公司 | 基于电子书的人物展示方法、电子设备及计算机存储介质 |
CN108470024A (zh) * | 2018-03-12 | 2018-08-31 | 北京灵伴即时智能科技有限公司 | 一种融合句法语义语用信息的汉语韵律结构预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109523988A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523988B (zh) | 一种文本演绎方法及装置 | |
US11816438B2 (en) | Context saliency-based deictic parser for natural language processing | |
Shutova | Automatic metaphor interpretation as a paraphrasing task | |
Agarwal et al. | Review of state-of-the-art design techniques for chatbots | |
CN105468713A (zh) | 一种多模型融合的短文本分类方法 | |
CN108509421B (zh) | 基于随机游走和粗糙决策置信度的文本情感分类方法 | |
Liu et al. | A multi-modal chinese poetry generation model | |
Ding et al. | Weakly supervised induction of affective events by optimizing semantic consistency | |
KR100481580B1 (ko) | 문서에서 이벤트 문장을 추출하는 장치 및 그 방법 | |
CN114528919A (zh) | 自然语言处理方法、装置及计算机设备 | |
CN112699240A (zh) | 中文情感特征词智能动态发掘和归类方法 | |
Daumé III | Non-parametric Bayesian areal linguistics | |
Gao et al. | Scope: The south carolina psycholinguistic metabase | |
KR20140049680A (ko) | 규칙기반 다중 에이전트를 이용한 감성 분류 시스템 및 그 방법 | |
Volodina et al. | Semi-automatic selection of best corpus examples for Swedish: Initial algorithm evaluation | |
Huang et al. | Central bank communication: one size does not fit all | |
JP2009003811A (ja) | 属性判別装置、対話装置、及びプログラム | |
Lee | Natural Language Processing: A Textbook with Python Implementation | |
Keizer et al. | Dialogue act recognition under uncertainty using Bayesian networks | |
CN114117057A (zh) | 产品反馈信息的关键词提取方法及终端设备 | |
Bod | Combining Simplicity and Likelihood in Language and Music | |
Janko | Linguistically integrated contractual interpretation: Incorporating semiotic theory of meaning-making into legal interpretation | |
CN116226677B (zh) | 平行语料构建方法及装置、存储介质及电子设备 | |
Adel et al. | An interval type-2 fuzzy ontological similarity measure | |
CN117494727B (zh) | 用于大语言模型的去偏倚方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 230088 China (Anhui) pilot Free Trade Zone, Hefei, Anhui province 6 / F and 23 / F, scientific research building, building 2, zone a, China sound Valley, No. 3333 Xiyou Road, high tech Zone, Hefei Applicant after: Anhui taoyun Technology Co.,Ltd. Address before: 230088 9th floor, building 1, tianyuandike science and Technology Park, 66 Qianshui East Road, high tech Zone, Hefei City, Anhui Province Applicant before: ANHUI TAOYUN TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |