CN108962219B - 用于处理文本的方法和装置 - Google Patents
用于处理文本的方法和装置 Download PDFInfo
- Publication number
- CN108962219B CN108962219B CN201810695218.1A CN201810695218A CN108962219B CN 108962219 B CN108962219 B CN 108962219B CN 201810695218 A CN201810695218 A CN 201810695218A CN 108962219 B CN108962219 B CN 108962219B
- Authority
- CN
- China
- Prior art keywords
- information
- text
- processed
- voice
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 230000036651 mood Effects 0.000 claims abstract description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 12
- 230000008451 emotion Effects 0.000 claims description 54
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 230000035790 physiological processes and functions Effects 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 description 25
- 238000003062 neural network model Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000001308 synthesis method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001667 episodic effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007510 mood change Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 206010027940 Mood altered Diseases 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L2013/083—Special characters, e.g. punctuation marks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了用于处理文本的方法和装置。该方法的一具体实施方式包括:获取待处理文本;分析待处理文本,得到待处理文本的情节信息,其中,情节信息用来描述待处理文本的内容;基于情节信息,确定待处理文本对应的语音特征信息,其中,语音特征信息用来表示待处理文本对应的语音的特征,语音特征信息包括以下至少一项:语速信息、音调信息和语气信息。该实施方式实现了通过对文本的分析处理得到文本对应的语音的语速、音调和语气等语音特征。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于处理文本的方法和装置。
背景技术
随着电子产品的普及,用户逐渐依赖于电子阅读,从而产生了大量的电子阅读的应用产品。这些应用产品提供的服务功能也越来越多样化,包括有声阅读等功能。
现有的有声阅读通常是将文本逐字转换成对应的音韵序列,然后根据音韵序列生成语音波形,最后根据语音波形合成语音。这种方式得到的文本对应的语音只是文本中逐字的标准发音。
发明内容
本申请实施例提出了用于处理文本的方法和装置。
第一方面,本申请实施例提供了一种用于处理文本的方法,该方法包括:获取待处理文本;分析待处理文本,得到待处理文本的情节信息,其中,情节信息用来描述待处理文本的内容;基于情节信息,确定待处理文本对应的语音特征信息,其中,语音特征信息用来表示待处理文本对应的语音的特征,语音特征信息包括以下至少一项:语速信息、音调信息和语气信息。
在一些实施例中,情节信息包括以下至少一项:人物状态信息、人物情绪信息、场景信息,其中,人物状态信息用于表示人物的生理状态,人物情绪信息用于表示人物的心理状态,场景信息用于表示待处理文本的内容描述的场面;以及基于情节信息,确定待处理文本对应的语音特征信息,包括:基于人物状态信息、人物情绪信息、场景信息中的至少一项,确定待处理文本对应的语速信息和音调信息。
在一些实施例中,情节信息包括人物情感信息,其中,人物情感信息用于表示人物的思想感情;以及基于情节信息,确定待处理文本对应的语音特征信息,包括:基于情感信息,确定待处理文本对应的语气信息。
在一些实施例中,基于情节信息,确定待处理文本对应的语音特征信息,包括:基于预设的情节关键词与语音特征信息的对应关系,确定与情节信息的匹配度最高的情节关键词对应的语音特征信息作为待处理文本对应的语音特征信息。
在一些实施例中,基于情节信息,确定待处理文本对应的语音特征信息,包括:将情节信息输入至与情节信息对应的、预先训练的语音特征模型,得到语音特征信息,其中,语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
在一些实施例中,上述方法还包括:基于语音特征信息,合成待处理文本对应的语音。
在一些实施例中,情节信息包括人物属性信息,其中,人物属性包括以下至少一项:名字、性别、年龄、音色、性格、籍贯、职业;以及上述基于语音特征信息,合成待处理文本对应的语音,包括:获取与人物属性信息匹配的基础语音数据;基于基础语音数据和语音特征信息,合成待处理文本对应的语音。
第二方面,本申请实施例提供了一种用于处理文本的装置,该装置包括:获取单元,被配置成获取待处理文本;分析单元,被配置成分析待处理文本,得到待处理文本的情节信息,其中,情节信息用来描述待处理文本的内容;确定单元,被配置成基于情节信息,确定待处理文本对应的语音特征信息,其中,语音特征信息用来表示待处理文本对应的语音的特征,语音特征信息包括以下至少一项:语速信息、音调信息和语气信息。
在一些实施例中,情节信息包括以下至少一项:人物状态信息、人物情绪信息、场景信息,其中,人物状态信息用于表示人物的生理状态,人物情绪信息用于表示人物的心理状态,场景信息用于表示待处理文本的内容描述的场面;以及确定单元进一步被配置成基于人物状态信息、人物情绪信息、场景信息中的至少一项,确定待处理文本对应的语速信息和音调信息。
在一些实施例中,情节信息包括人物情感信息,其中,人物情感信息用于表示人物的思想感情;以及确定单元进一步被配置成基于情感信息,确定待处理文本对应的语气信息。
在一些实施例中,确定单元进一步被配置成基于预设的情节关键词与语音特征信息的对应关系,确定与情节信息的匹配度最高的情节关键词对应的语音特征信息作为待处理文本对应的语音特征信息。
在一些实施例中,确定单元进一步被配置成将情节信息输入至与情节信息对应的、预先训练的语音特征模型,得到语音特征信息,其中,语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
在一些实施例中,上述装置还包括:合成单元,被配置成基于语音特征信息,合成待处理文本对应的语音。
在一些实施例中,情节信息包括人物属性信息,其中,人物属性包括以下至少一项:名字、性别、年龄、音色、性格、籍贯、职业;以及上述获取单元进一步被配置成获取与人物属性信息匹配的基础语音数据;上述合成单元进一步被配置成基于基础语音数据和语音特征信息,合成待处理文本对应的语音。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于处理文本的方法和装置,通过获取待处理文本,并对其进行分析以得到待处理文本的情节信息。之后,根据待处理文本的情节信息,确定待处理文本的包括语速信息、音调信息和语气信息等语音特征信息,从而实现了通过对文本的分析处理得到文本对应的语音的语速、音调和语气等语音特征。进一步地,可以根据得到的语音特征,合成待处理文本对应的语音,使得合成的文本对应的语音具有对应的语音特征,有助于更生动地向听众传达文本的内容。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于处理文本的方法的一个实施例的流程图;
图3是根据本申请的用于处理文本的方法的一个应用场景的示意图;
图4是根据本申请的用于处理文本的方法的又一个实施例的流程图;
图5是根据本申请的用于处理文本的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理文本的方法或用于处理文本的装置的实施例的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种能够获取和/或处理待处理文本的应用,例如网页浏览器应用、搜索类应用、社交平台软件、文本编辑类应用、文本处理类应用、阅读类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持处理文本的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如为终端设备101、102、103发送的待处理文本进行的分析等处理的处理服务器。处理服务器可以对接收的待处理文本进行处理,并将处理结果(如待处理文本的情节信息)反馈给终端设备。
需要说明的是,上述待处理文本也可以直接存储在服务器105的本地,服务器105可以直接提取本地所存储的待处理文本并进行处理,此时,可以不存在终端设备101、102、103和网络104。
需要说明的是,本申请实施例所提供的用于处理文本的方法一般由服务器105执行,相应地,用于处理文本的装置一般设置于服务器105中。
还需要指出的是,终端设备101、102、103中也可以安装有能够处理文本的应用,终端设备101、102、103也可以这些应用对待处理文本进行处理,此时,用于处理文本的方法也可以由终端设备101、102、103执行,相应地,用于处理文本的装置也可以设置于终端设备101、102、103中。此时,示例性系统架构100可以不存在服务器105和网络104。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于处理文本的方法的一个实施例的流程200。该用于处理文本的方法包括以下步骤:
步骤201,获取待处理文本。
在本实施例中,用于处理文本的方法的执行主体(如图1所示的服务器105)可以获取待处理文本。其中,上述待处理文本可以是预先存储在上述执行主体中的,由技术人员所预先指定的文本。上述执行主体可以直接提取本地所预先存储的上述文本。另外,上述待处理文本也可以是上述执行主体通过有线连接方式或者无线连接方式从其它终端设备(例如图1所示的终端设备101、102、103)或存储设备所接收的文本。需要说明的是,上述待处理文本可以是各种文字信息,例如句子、段落或者篇章等。
步骤202,分析待处理文本,得到待处理文本的情节信息。
在本实施例中,上述执行主体可以通过分析上述步骤201所得到的待处理文本,得到待处理文本的情节信息。其中,情节信息可以用来描述待处理文本的内容。可选地,情节信息可以是待处理文本的内容本身。可选地,情节信息也可以是从待处理文本的内容中提取出的主要内容。
可选地,情节信息可以包括以下至少一项:人物状态信息、人物情绪信息、场景信息。其中,人物状态信息用于表示人物的生理状态。例如,人物状态可以包括醉酒状态、生病状态等。人物情绪信息用于表示人物的心理状态。例如,人物情绪可以是开心、愤怒、惊恐、悲伤、友爱、嫉妒、惭愧、自豪等。场景信息用于表示待处理文本的内容描述的场面。例如,场景可以包括打斗、争吵、聚会等。
可选地,情节信息可以包括人物情感信息。其中,人物情感信息用于表示人物的思想感情。例如,人物情感可以包括赞美、仰慕、思念、怀念、感叹、憎恨、痛心疾首、难过、伤怀、坚定等。
在本实施例的一些可选的实现方式中,可以利用现有的各种自然语言处理技术对待处理文本进行分析处理,以得到待处理文本的情节信息。例如,可以先利用现有的文本特征提取方法(如基于语境框架的文本特征提取、基于本体论的文本特征提取等)提取待处理文本的文本特征。然后,根据提取的文本特征,确定待处理文本的情节信息。
可选地,可以预先获取大量的样本文本,并通过现有的文本特征提取方法提取样本文本的文本特征。同时,还可以人工标注出样本文本的情节信息。然后,可以对上述大量的样本文本的文本特征和对应的情节信息进行统计分析,从而建立存储有样本文本的文本特征和样本文本的情节信息的对应关系表。此时,可以通过将提取的待处理文本的文本特征与上述对应关系表中存储的文本特征分别对比,选取与待处理文本的文本特征的相同或相似度最高的文本特征所对应的情节信息作为待处理文本的情节信息。
可选地,还可以在获取大量的样本文本,并通过现有的文本特征提取方法提取样本文本的文本特征,且人工标注出样本文本的情节信息之后,还可以利用机器学习的方法,得到表征文本的文本特征与文本的情节信息的对应关系的神经网络模型。此时,可以将提取的待处理文本的文本特征输入至上述神经网络模型,从而得到待处理文本的情节信息。
具体地,可有首先获取初始神经网络模型。其中,初始神经网络模型可以是未经训练或未训练完成的深度学习模型,也可以是各种类型的未经训练的或未训练完成的人工神经网络或对多种未经训练的或未训练完成的人工神经网络进行组合得到的模型。然后,将每个样本文本的文本特征分别作为初始神经网络模型的输入,将与输入的文本特征对应的样本文本的情节信息作为期望输出,不断调整初始神经网络模型的各层的参数。最后,可以将训练完成的初始神经网络模型作为上述表征文本的文本特征与文本的情节信息的对应关系的神经网络模型。其中,训练完成的条件可以设置为初始神经网络模型连续多次输出的情节信息与样本文本的情节信息的相似度大于一定阈值。
在本实施例的一些可选的实现方式中,还可以获取大量的样本文本,并人工标注出样本文本的情节信息。然后,利用机器学习的方法,训练得到能够表征文本与文本的情节信息的神经网络模型。此时,可以直接将待处理文本输入至表征文本与文本的情节信息的神经网络模型,从而得到待处理文本的情节信息。
具体地,可有首先获取初始神经网络模型。其中,初始神经网络模型可以是未经训练或未训练完成的深度学习模型,也可以是各种类型的未经训练的或未训练完成的人工神经网络或对多种未经训练的或未训练完成的人工神经网络进行组合得到的模型。然后,将每个样本文本分别作为初始神经网络模型的输入,将与输入的样本的情节信息作为期望输出,不断调整初始神经网络模型的各层的参数。最后,可以将训练完成的初始神经网络模型作为上述表征文本与文本的情节信息的对应关系的神经网络模型。其中,训练完成的条件可以设置为初始神经网络模型连续多次输出的情节信息与输入的样本文本的情节信息的相似度大于一定阈值。
实践中,实际的应用需求可能想要获取待处理文本的多方面的情节信息。例如关于人物状态方面的情节信息,关于场景方面的情节信息等。此时,可以针对不同的情节信息单独处理。例如,想要获取的情节信息包括人物状态信息和场景信息时,可以分别预先训练能够表征文本与文本的人物状态信息的对应关系的神经网络模型和能够表征文本与文本的场景信息的对应关系的神经网络模型。此时,可以将待处理文本分别输入这两个神经网络模型,从而分别得到待处理文本的人物状态信息和场景信息。
实践中,根据待处理文本的内容题材、文本内容的长度等因素,可以先把待处理文本进行拆分。例如,在待处理文本内容较长时,可以按照章节或段落进行拆分。然后,针对每个待处理文本拆分后的子文本,进行分析处理,得到每个子文本的情节信息。最后,再汇总得到待处理文本的情节信息。
步骤203,基于情节信息,确定待处理文本对应的语音特征信息。
在本实施例中,语音特征信息用来表示待处理文本对应的语音的特征。语音特征信息可以包括以下至少一项:语速信息、音调信息和语气信息。其中,语速可以指讲话的速度的快慢。音调可以指讲话的声音频率的高低。语气可以指讲话时流露出的不同程度的各种感情色彩。感情色彩包括如喜、怒、哀、乐、欲、恶、憎、缠绵、委屈等。语气还可以指讲话时声音的发展态势,包括如声音强弱、声音长短、气息深浅、气息多少、气息快慢等变化态势。
在本实施例的一些可选的实现方式中,可以基于预设的情节关键词与语音特征信息的对应关系,确定与情节信息的匹配度最高的情节关键词对应的语音特征信息作为待处理文本对应的语音特征信息。其中,预设的情节关键词可以是预先对大量的文本进行分析而提取出的关键词,例如,情节关键词可以是各文本中出现频率大于一定阈值的词。预设的情节关键词也可以是从现有的一些语料库中获取的与文本的情节信息可能有关的词。例如描述文中的人物情感的词、描述文本中的人物状态的词等。
具体地,可以预设情节关键词与语音特征信息的对应关系。然后,可以从情节信息中提取情节关键词。其中,从情节信息中提取的情节关键词可以是情节信息中出现频率最高的词,也可以是情节信息中的某些词性(如形容词、动词等)的词。然后,可以计算提取出的情节关键词与预设的各个情节关键词的相似度,确定出相似度最高的预设的情节关键词。也可以直接计算情节信息与预设的各个情节关键词的相似度,确定出相似度最高的预设的情节关键词。之后,可以将上述确定出的预设的情节关键词对应的语音特征信息作为待处理文本对应的语音特征信息。
应该可以理解,在从情节信息中提取出多个情节关键词时,针对每个关键词都会得到该关键词对应的语音特征信息。在两个关键词都对应有同一个语音特征的语音特征信息时,可以取平均值作为待处理文本对应的语音特征信息。或者,还可以预先针对每个预设的情节关键词设置优先级。此时,可以选择对应的预设的情节关键词的优先级高的关键词对应的语音特征信息作为待处理文本对应的语音特征信息。
在本实施例的一些可选的实现方式中,可以将情节信息输入至与情节信息对应的、预先训练的语音特征模型,从而得到语音特征信息。其中,语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
具体地,可以预先训练用于表征文本的情节信息与文本的语音特征信息之间的对应关系的语音特征模型。然后,可以得到的待处理文本的情节信息输入至语音特征模型中,得到待处理文本的语音特征信息。
实践中,语音特征模型可以是基于多个训练样本对初始语音特征模型进行训练后得到的模型。其中,初始语音特征模型可以是未经训练或未训练完成的深度学习模型。初始语音特征模型的各层可以设置有初始参数,参数在训练过程中可以被不断地调整。初始语音特征模型也可以是各种类型的未经训练的或未训练完成的人工神经网络或对多种未经训练的或未训练完成的人工神经网络进行组合得到的模型。例如,初始语音特征模型可以是未经训练的卷积神经网络,也可以是未经训练的循环神经网络,还可以是对未经训练的卷积神经网络、未经训练的循环神经网络和未经训练的全连接层进行组合得到的模型。
可选地,语音特征模型可以通过如下步骤训练得到:
第一步,获取训练样本集合。其中,每个训练样本可以包括文本的情节信息和文本对应的语音特征信息。不同的训练样本对应的文本可以不同。
第二步,获取初始语音特征模型。然后,将训练样本中的文本的情节信息作为输入,基于初始语音特征模型的输出和预设的损失函数来对初始语音特征模型进行训练,并将训练完成后的初始语音特征模型作为语音特征模型。
其中,上述损失函数的值可以用来表征训练过程中初始语音特征模型输出的语音特征信息与输入的情节信息对应的语音特征信息的差异程度。损失函数越小,表示差异越小。并且,可以根据损失函数确定是否训练完成。例如,可以将前后两次或多次的损失函数的值均小于一定阈值作为结束条件。此时,在确定前后两次或多次的损失函数的值均小于一定阈值时,则训练完成,将训练完成后的初始语音特征模型作为语音特征模型。
实践中,可以根据实际的应用需求,训练得到分别针对不同类型的文本的语音特征模型。例如可以根据文本的体裁分别训练得到对应于不同体裁的语音特征模型。例如,可以分别训练得到对应于散文的、对应于诗歌的、对应于小说的语音特征模型。进一步地,还可以根据文本描写的内容的年代,如古风和现代。分别针对古风和现代两种类型训练对应的语音特征模型。同样地,还可以根据文本的题材、长短等属性来进行分类,然后针对每个类别训练得到对应的语音特征模型。此时,可以根据待处理文本的类别,将待处理文本输入至对应类别的语音特征模型进行处理。
在本实施例的一些可选的实现方式中,情节信息包括以下至少一项时:人物状态信息、人物情绪信息、场景信息。可以根据人物状态信息、人物情绪信息、场景信息中的至少一项确定待处理文本对应的语速信息和音调信息。
具体地,可以利用上述说明的通过预设的情节信息与语音特征信息的对应关系或通过预先训练的语音特征模型,以根据人物状态信息、人物情绪信息、场景信息中的至少一项确定待处理文本对应的语速信息和音调信息。
例如,可以预设情节信息与语速信息的对应关系,以及预设情节信息与音调信息的对应关系。还可以预先训练表征情节信息与语速信息的对应关系的语音特征模型,以及预先训练表征情节信息与音调信息的对应关系的语音特征模型。还可以预先训练表征情节信息与语速信息和音调信息的对应关系的语音特征模型,即将情节信息为语音特征模型的输入,将语速信息和音调信息为语音特征模型的输出。然后,利用上述预设的对应关系和语音特征模型,以根据人物状态信息、人物情绪信息、场景信息确定对应的语速信息和音调信息。
由于人在不同的状态、情绪和场景下,通常会伴随有语速和音调的变化。例如,人在生病的状态下,通常说话的语速会比较慢,音调也比较低。人在愤怒的情绪下,通常说话的音调会比较高。在电影院看电影或者在图书馆看书的场景下,人说话的音调都会放低。因此,可以根据人物的状态、情绪,以及不同的场景,确定人物的语速和音调。
在本实施例的一些可选的实现方式中,情节信息包括人物情感信息时,可以根据人物情感信息,确定待处理文本对应的语气信息。可以利用上述说明的通过预设的情节信息与语音特征信息的对应关系或通过预先训练的语音特征模型,以根据人物情感信息确定待处理文本对应的语气信息。
例如,可以预设情节信息与语气信息的对应关系。还可以预先训练表征情节信息与语气信息的对应关系的语音特征模型。然后,利用上述预设的对应关系和语音特征模型,以根据人物情感信息确定对应的语气信息。
人在不同具有不同的情感状态下,通常会伴随有语气的变化。除此之外,人在不同的状态和情绪下,以及不同的场景中,也可能会有语气的变化。同样地,人在不同的情感状态下,也可能会有语速和音调的变化。
应该可以理解,人物状态、人物情绪、人物所处的场景、人物情感,以及其它情节信息(如自然环境)之间都是具有内在的联系的。各个情节信息之间是相互作用相互影响的。例如,人在生病的状态下,情绪通常会比较低落或烦躁。人在委屈的情感状态下,情绪也会比较难过。因此,可以根据具体的应用场景,选择不同的情节信息确定待处理文本对应的语音特征信息。
应该可以理解,在待处理文本的内容较多时(如待处理文本为一本小说时),其相应可能具有较丰富的情节信息。此时,可以如上述说明,预先将待处理文本进行拆分,得到多个子文本。每个子文本的情节信息都对应有语音特征信息。
继续参见图3,图3是根据本实施例的用于处理文本的方法的应用场景的一个示意图。在图3的应用场景中,执行主体301可以是任意的一台能够处理文本的计算机。在计算机301的本地可以存储有待处理文本302。待处理文本302的内容为:“A越想越愤慨,在看见B时忍不住吵道:你误会我了”。此时,计算机301可以直接从本地获取待处理文本302。然后将待处理文本302的内容输入至预先训练的表征文本与文本的情节信息的对应关系的神经网络模型303,得到待处理文本302的情节信息304。情节信息304包括:“人物A被误会后,愤慨的和人物B争吵说:你误会我了”。
然后,可以从情节信息304中提取关键词“争吵”、“被误会”、“愤慨”。之后,可以从预设的情节关键词库305中查找每个关键词对应的语速信息、音调信息和语气信息。其中,只有关键词“争吵”对应有语速信息为400字/分(即每分钟400字),因此,待处理文本302的语速信息即为400字/分。关键词“争吵”对应的音调信息为400HZ(赫兹),关键词“愤慨”对应的音调信息为450HZ。可以取两者的平均值425HZ作为待处理文本302的音调信息。关键词“争吵”和关键词“愤慨”对应的语气信息均为“激动”,关键词“被误会”对应的语气信息为委屈,那么,待处理文本302的语气信息可以为激动且委屈。从而,得到了待处理文本302对应的语音特征信息306,包括语速信息为400字/分,音调信息为425HZ,语气信息为激动且委屈。
本申请的上述实施例提供的方法通过获取待处理文本,并对其进行分析以得到待处理文本的情节信息。之后,根据待处理文本的情节信息,确定待处理文本的包括语速信息、音调信息和语气信息等语音特征信息,从而实现了通过对文本的分析处理得到文本对应的语音的语速、音调和语气等语音特征。进一步地,可以根据得到的语音特征,合成待处理文本对应的语音,使得合成的文本对应的语音具有对应的语音特征,有助于更生动地向听众传达文本的内容。
进一步参考图4,其示出了用于处理文本的方法的又一个实施例的流程400。该用于处理文本的流程400,包括以下步骤:
步骤401,获取待处理文本。
本步骤的具体的执行过程可参考图2对应实施例中的步骤201的相关说明,在此不再赘述。
步骤402,分析待处理文本,得到待处理文本的情节信息。
在本实施例中,情节信息还可以包括人物属性信息。其中,人物属性可以包括以下至少一项:性别、年龄、音色、性格、籍贯、职业。人物属性信息可以是用来表示人物属性的信息。
可以利用图2对应实施例中说明的得到待处理文本的情节信息的方法来得到待处理文本的人物属性信息,也可以利用现有的一些人物属性抽取方法(如基于规则的人物属性抽取、基于支持向量机的人物属性抽取等)得到待处理文本的人物属性信息。
应当可以理解,待处理文本中可能包含有多个人物,那么相应地,每个人物都可以有对应的人物属性信息。
步骤403,基于情节信息,确定待处理文本对应的语音特征信息。
本步骤的具体的执行过程可参考图2对应实施例中的步骤203的相关说明,在此不再赘述。
步骤404,获取与人物属性信息匹配的基础语音数据。
在本实施例中,语音数据可以是指任意格式的、存储声音的音频文件或录音文件。常见的音频文件或录音文件的格式包括MP3(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)、WMA(Windows Media Audio,微软音频格式)、MIDI(Musical Instrument Digital Interface,乐器数字接口)等。
与人物属性信息匹配的语音数据可以是指与人物属性信息所描述的人物通常具有的声音对应的语音数据。可选地,可以先根据人物属性信息,确定人物属性信息描述的人物通常具有的声音。基于此,再获取与确定的声音对应的语音数据。
不同人的声音通常会根据性别、年龄、音色、地域等方面的不同具有一定的差别。一般地,男和女两种性别具有明显的声音差别。声音随着年龄也会有所变化。如儿童、青年、中年和老年各个时期的声音具有一定的差别。不同人的声音在音色方面也通常不同。不同地域的人会有特有的一些发音方式,从而导致不同地域的人的声音也可能具有一些差别。
另外,不同职业或性格也会有符合普通人的既定认知的不同声音。例如,播音员的声音通常比较温润平和,比赛解说员的声音通常比较热烈激昂等。例如,外向的人的声音通常比较活泼跳跃等。
举例来说,人物属性信息包括:性别女,年龄20,音色明亮。对应地,与该人物属性信息匹配的语音数据可以是具有明亮音色的年轻女士的语音数据。
基础语音数据可以是对合成人物属性信息描述的人物对应的语音最有用的语音数据。基础语音数据也可以时包含了最多待处理文本中的文字对应的语音数据。基础语音数据也可以是在待处理文本中,人物属性信息描述的人物的对话中出现的一些高频词对应的语音数据。
例如,人物属性信息描述的人物是一个年轻女老师时,在待处理文本中,该人物的对话中常出现的词包括:老师,我们,上课、考试、同学们等。那么,基础语音数据可以是一个年轻女声对应的,且包含上述老师,我们,上课、考试、同学们等这些词的语音数据。
基础语音数据可以从上述执行主体的本地获取,也可以从服务端存储的语音数据中获取,也可以从第三方的一些语音库中获取。
步骤405,基于基础语音数据和语音特征信息,合成待处理文本对应的语音。
在本实施例中,可以利用现有的各种语音合成技术,结合上述步骤404获取的基础语音数据和上述步骤403确定的语音特征信息,合成待处理文本对应的语音。目前,常用的语音合成技术包括参数合成和拼接合成两种方法。
现有的参数合成方法,主要是根据一定数目的文本数据和语音数据进行训练,从而构建语音合成系统。语音合成系统的主要处理过程通常包括:文本处理、参数预测和语音合成三个阶段。其中,文本处理主要包括对输入的文本进行文本分析处理,如提取上下文描述信息等。参数预测主要包括根据处理结果,预测输入的文本的声学特征参数。语音合成主要包括利用声码器合成输入的文本对应的语音。
其中,不同的语言的文本由于语言特征的不同,可能有不同的文本分析处理方法。例如,对于中文的文本来说,主要的处理过程包括:文本正则化、分词、词性预测、多音字消歧、韵律预测等。
其中,针对根据文本的处理结果,目前主要有利用统计模型或神经网络模型的方式来预测输入的文本的声学特征参数。常用的统计模型包括如HMM(Hidden Markov Model,隐马尔科夫模型)等。神经网络模型包括如LSTM(Long Short-Term Memory,长短期记忆网络)和BLSTM(Bidirectional Long Short-Term Memory,基于双向长短时记忆网络)等。
声学特征参数用来描述语音的特征的参数,例如基频、声强等。其中,基频即是基音的频率。声强表示单位时间内通过垂直于声波传播方向的单位面积的平均声能。实践中,用于预测文本的声学特征参数的模型也可以为多个,即使用不同的模型分别来预测不同的声学特征参数。
在本实施例的一些可选地实现方式中,可以基于语音特征信息,合成待处理文本对应的语音。例如,利用参数合成方法合成待处理文本对应的语音。具体地,可以首先根据大量的训练样本训练得到语音合成系统。其中,训练样本包括文本和文本对应的语音数据。其中,文本对应的语音数据具有文本对应的语音特征。
如上述说明,在待处理文本的篇幅较长,具有较丰富的情节信息时,可以将待处理文本拆分为多个子文本。之后,可以将每个子文本作为输入,合成每个子文本对应的语音。最后,通过拼接各个子文本分别对应的语音得到待处理文本对应的语音。
另外,还可以在具体的训练过程中,通过预先对待处理文本进行标记。例如,在待处理文本中每个想要拆分的位置进行标注,得到能够根据标注,合成具有语音特征变化的语音的语音合成系统。
例如,还可以利用波形拼接的方法合成待处理文本对应的语音。具体地,可以预先根据大量的训练样本来对文本的声学特征参数进行建模,得到能够输出文本对应的语音的声学特征参数的声学模型。其中,训练样本包括文本和文本对应的具有上述语音特征的语音。之后,可以利用训练好的声学模型得到待处理文本的声学特征参数,然后根据待处理文本的声学特征参数,从预先录制并标注好的语料库中挑选合适的单元,然后拼接得到待处理文本的对应的语音。
在上述合成待处理文本对应的语音的过程中,和现有技术相比,由于考虑了待处理文本对应的语音特征,从而使得合成的待处理文本对应的语音具有语音特征的变化,从而有助于更好地表达待处理文本的内容,同时也使得合成的待处理文本对应的语音更加贴近于人们正常生活中的语音表达。
在上述合成待处理文本对应的语音的基础上,还可以结合获取的基础语音数据,合成待处理文本对应的语音,从而使得合成的待处理文本对应的语音,在具有语音特征变化的基础上,还能够使得合成的语音的音色较符合于待处理文本中的人物所具有的或较可能具有的音色。
具体地,可以根据基础语音数据,利用现有的语音合成方法,得到该基础语音数据对应的声学模型。应该可以理解,当待处理文本中具有多个人物时,每个人物都可以对应一个声学模型。旁白也可以认为是一个人物,也可以挑选想要的旁白的音色对应的基础语音数据,然后合成旁白对应的声学模型。
之后,可以根据待处理文本对应的语音特征信息,对声学模型输出的声学特征参数进行调整,使得调整后的声学特征参数合成的语音具有对应的语音特征。另外,也可以在获取基础语音数据时,尽量获取具有语音特征的语音数据,从而使得训练得到的声学模型输出的声学特征参数合成的语音具有语音特征,或者通过对声学模型输出的声学特征参数较少的调整即可合成具有语音特征的语音。
同样地,也可以利用波形拼接的方法,结合获取的基础语音数据和对应的语音特征信息,合成待处理文本对应的语音。具体地,可以根据基础语音数据和对应的语音特征信息,预先得到标注好的基础语音数据对应的语料库。应该可以理解,当待处理文本中具有多个人物时,每个人物都可以对应一个语料库。旁白也可以认为是一个人物,也可以挑选想要的旁白的音色对应的基础语音数据,然后预先得到标注好的、旁白对应的语料库。
之后,根据待处理文本的语音特征信息,从预先训练的一个或多个语料库中挑选合适的单元,然后拼接得到对应的语音。其中,在挑选合适的单元之后,根据实际的需要,也可以先对单元进行一些调整,然后再拼接调整后的单元得到对应的语音。
实践中,可以对待处理文本进行预先标注。例如在文本中标注出旁白部分、各个人物的对话部分等,从而,语音合成系统能够根据标注选择对应的声学模型得到各人物或旁白对应的声学特征参数,或者能够从各人物或旁白对应的语料库中挑选合适的单元,并合成对应的语音。
应该可以理解,通常还想要合成的待处理文本对应的语音中包含有环境音。例如,下雨、刮风等。另外,通常还想要合成的待处理文本对应的语音中包含有背景音,例如对于待处理文本中的打斗场景处,需要有打斗的背景音,或者在一些内容处,需要配有一定的背景音乐等。对于环境音和背景音的合成,可以直接利用现有的环境音和背景音的合成方法得到,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的信息推送方法的流程400突出了还可以根据待处理文本的人物属性信息,获取与人物属性信息匹配的基础语音数据,从而在确定待处理文本的语音特征之后,还可以进一步根据基础语音数据和语音特征信息合成待处理文本对应的语音,从而使得合成的语音具有语音特征的变化,而且不同的人物属性对应有不同音色的语音。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了用于处理文本的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于处理文本的装置500包括获取单元501、分析单元502和确定单元503。其中,获取单元501被配置成获取待处理文本;分析单元502被配置成分析待处理文本,得到待处理文本的情节信息,其中,情节信息用来描述待处理文本的内容;确定单元503被配置成基于情节信息,确定待处理文本对应的语音特征信息,其中,语音特征信息用来表示待处理文本对应的语音的特征,语音特征信息包括以下至少一项:语速信息、音调信息和语气信息。
在本实施例中,用于处理文本的装置500中:获取单元501、分析单元502和确定单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,情节信息包括以下至少一项:人物状态信息、人物情绪信息、场景信息,其中,人物状态信息用于表示人物的生理状态,人物情绪信息用于表示人物的心理状态,场景信息用于表示待处理文本的内容描述的场面;以及确定单元503进一步被配置成基于人物状态信息、人物情绪信息、场景信息中的至少一项,确定待处理文本对应的语速信息和音调信息。
在本实施例的一些可选的实现方式中,情节信息包括人物情感信息,其中,人物情感信息用于表示人物的思想感情;以及确定单元503进一步被配置成基于情感信息,确定待处理文本对应的语气信息。
在本实施例的一些可选的实现方式中,确定单元503进一步被配置成基于预设的情节关键词与语音特征信息的对应关系,确定与情节信息的匹配度最高的情节关键词对应的语音特征信息作为待处理文本对应的语音特征信息。
在本实施例的一些可选的实现方式中,确定单元503进一步被配置成将情节信息输入至与情节信息对应的、预先训练的语音特征模型,得到语音特征信息,其中,语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
在本实施例的一些可选的实现方式中,用于处理文本的装置500还包括:合成单元(图中未示出),被配置成基于语音特征信息,合成待处理文本对应的语音。
在本实施例的一些可选的实现方式中,情节信息包括人物属性信息,其中,人物属性包括以下至少一项:名字、性别、年龄、音色、性格、籍贯、职业;以及获取单元501进一步被配置成获取与人物属性信息匹配的基础语音数据;上述合成单元进一步被配置成基于基础语音数据和语音特征信息,合成待处理文本对应的语音。
本申请的上述实施例提供的装置,通过获取单元获取待处理文本,并由分析单元对其进行分析以得到待处理文本的情节信息。之后,确定单元根据待处理文本的情节信息,确定待处理文本的包括语速信息、音调信息和语气信息等语音特征信息,从而实现了通过对文本的分析处理得到文本对应的语音的语速、音调和语气等语音特征。进一步地,可以根据得到的语音特征,合成待处理文本对应的语音,使得合成的文本对应的语音具有对应的语音特征,有助于更生动地向听众传达文本的内容。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括获取单元、分析单元和确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待处理文本的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取待处理文本;分析待处理文本,得到待处理文本的情节信息,其中,情节信息用来描述待处理文本的内容;基于情节信息,确定待处理文本对应的语音特征信息,其中,语音特征信息用来表示待处理文本对应的语音的特征,语音特征信息包括以下至少一项:语速信息、音调信息和语气信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于处理文本的方法,包括:
获取待处理文本;
分析所述待处理文本,得到所述待处理文本的情节信息,其中,所述情节信息用来描述所述待处理文本的内容;
基于所述情节信息,确定所述待处理文本对应的语音特征信息,其中,所述语音特征信息用来表示所述待处理文本对应的语音的特征,所述语音特征信息包括以下至少一项:语速信息、音调信息和语气信息;
其中,所述情节信息包括以下至少一项:人物状态信息、人物情绪信息、场景信息,其中,所述人物状态信息用于表示人物的生理状态,所述人物情绪信息用于表示人物的心理状态,所述场景信息用于表示所述待处理文本的内容描述的场面;以及所述基于所述情节信息,确定所述待处理文本对应的语音特征信息,包括:基于所述人物状态信息、所述人物情绪信息、所述场景信息中的至少一项,确定所述待处理文本对应的语速信息和音调信息;
其中,所述情节信息包括人物情感信息,其中,所述人物情感信息用于表示人物的思想感情;以及所述基于所述情节信息,确定所述待处理文本对应的语音特征信息,包括:基于所述情感信息,确定所述待处理文本对应的语气信息。
2.根据权利要求1所述的方法,其中,所述基于所述情节信息,确定所述待处理文本对应的语音特征信息,包括:
基于预设的情节关键词与语音特征信息的对应关系,确定与所述情节信息的匹配度最高的情节关键词对应的语音特征信息作为所述待处理文本对应的语音特征信息。
3.根据权利要求1所述的方法,其中,所述基于所述情节信息,确定所述待处理文本对应的语音特征信息,包括:
将所述情节信息输入至与所述情节信息对应的、预先训练的语音特征模型,得到所述语音特征信息,其中,所述语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
4.根据权利要求1-3之一所述的方法,其中,所述方法还包括:
基于所述语音特征信息,合成所述待处理文本对应的语音。
5.根据权利要求4所述的方法,其中,所述情节信息包括人物属性信息,其中,人物属性包括以下至少一项:名字、性别、年龄、音色、性格、籍贯、职业;以及
所述基于所述语音特征信息,合成所述待处理文本对应的语音,包括:
获取与所述人物属性信息匹配的基础语音数据;
基于所述基础语音数据和所述语音特征信息,合成所述待处理文本对应的语音。
6.一种用于处理文本的装置,其中,所述装置包括:
获取单元,被配置成获取待处理文本;
分析单元,被配置成分析所述待处理文本,得到所述待处理文本的情节信息,其中,所述情节信息用来描述所述待处理文本的内容;
确定单元,被配置成基于所述情节信息,确定所述待处理文本对应的语音特征信息,其中,所述语音特征信息用来表示所述待处理文本对应的语音的特征,所述语音特征信息包括以下至少一项:语速信息、音调信息和语气信息;
其中,所述情节信息包括以下至少一项:人物状态信息、人物情绪信息、场景信息,其中,所述人物状态信息用于表示人物的生理状态,所述人物情绪信息用于表示人物的心理状态,所述场景信息用于表示所述待处理文本的内容描述的场面;以及所述确定单元进一步被配置成基于所述人物状态信息、所述人物情绪信息、所述场景信息中的至少一项,确定所述待处理文本对应的语速信息和音调信息;
其中,所述情节信息包括人物情感信息,其中,所述人物情感信息用于表示人物的思想感情;以及所述确定单元进一步被配置成基于所述情感信息,确定所述待处理文本对应的语气信息。
7.根据权利要求6所述的装置,其中,所述确定单元进一步被配置成基于预设的情节关键词与语音特征信息的对应关系,确定与所述情节信息的匹配度最高的情节关键词对应的语音特征信息作为所述待处理文本对应的语音特征信息。
8.根据权利要求6所述的装置,其中,所述确定单元进一步被配置成将所述情节信息输入至与所述情节信息对应的、预先训练的语音特征模型,得到所述语音特征信息,其中,所述语音特征模型用于表征情节信息与语音特征信息之间的对应关系。
9.根据权利要求6-8之一所述的装置,其中,所述装置还包括:
合成单元,被配置成基于所述语音特征信息,合成所述待处理文本对应的语音。
10.根据权利要求9所述的装置,其中,所述情节信息包括人物属性信息,其中,人物属性包括以下至少一项:名字、性别、年龄、音色、性格、籍贯、职业;以及
所述获取单元进一步被配置成获取与所述人物属性信息匹配的基础语音数据;
所述合成单元进一步被配置成基于所述基础语音数据和所述语音特征信息,合成所述待处理文本对应的语音。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810695218.1A CN108962219B (zh) | 2018-06-29 | 2018-06-29 | 用于处理文本的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810695218.1A CN108962219B (zh) | 2018-06-29 | 2018-06-29 | 用于处理文本的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108962219A CN108962219A (zh) | 2018-12-07 |
CN108962219B true CN108962219B (zh) | 2019-12-13 |
Family
ID=64487868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810695218.1A Active CN108962219B (zh) | 2018-06-29 | 2018-06-29 | 用于处理文本的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108962219B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545245A (zh) * | 2018-12-21 | 2019-03-29 | 斑马网络技术有限公司 | 语音处理方法及装置 |
CN109712604A (zh) * | 2018-12-26 | 2019-05-03 | 广州灵聚信息科技有限公司 | 一种情感语音合成控制方法和装置 |
CN109658917A (zh) * | 2019-01-17 | 2019-04-19 | 深圳壹账通智能科技有限公司 | 电子书诵读方法、装置、计算机设备及存储介质 |
CN109981448B (zh) * | 2019-03-28 | 2022-03-25 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN110444229A (zh) * | 2019-06-17 | 2019-11-12 | 深圳壹账通智能科技有限公司 | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 |
CN112765971B (zh) * | 2019-11-05 | 2023-11-17 | 北京火山引擎科技有限公司 | 文本语音的转换方法、装置、电子设备及存储介质 |
CN110970011A (zh) * | 2019-11-27 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 图片处理方法、装置、设备及计算机可读存储介质 |
CN110941954B (zh) * | 2019-12-04 | 2021-03-23 | 深圳追一科技有限公司 | 文本播报方法、装置、电子设备及存储介质 |
CN111031386B (zh) * | 2019-12-17 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 基于语音合成的视频配音方法、装置、计算机设备及介质 |
CN111292715B (zh) * | 2020-02-03 | 2023-04-07 | 北京奇艺世纪科技有限公司 | 语音合成方法、装置、电子设备及计算机可读存储介质 |
CN111292719A (zh) * | 2020-02-07 | 2020-06-16 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、计算机可读介质及电子设备 |
CN111415650A (zh) * | 2020-03-25 | 2020-07-14 | 广州酷狗计算机科技有限公司 | 文本语音转换的方法、装置、设备以及存储介质 |
CN113539230A (zh) * | 2020-03-31 | 2021-10-22 | 北京奔影网络科技有限公司 | 语音合成方法及装置 |
CN111858925B (zh) * | 2020-06-04 | 2023-08-18 | 国家计算机网络与信息安全管理中心 | 电信网络诈骗事件的剧本提取方法以及装置 |
CN111667811B (zh) * | 2020-06-15 | 2021-09-07 | 北京百度网讯科技有限公司 | 语音合成方法、装置、设备和介质 |
CN112349299A (zh) * | 2020-10-28 | 2021-02-09 | 维沃移动通信有限公司 | 语音播放方法、装置及电子设备 |
CN112489621B (zh) * | 2020-11-20 | 2022-07-12 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
CN112309368A (zh) * | 2020-11-23 | 2021-02-02 | 北京有竹居网络技术有限公司 | 韵律预测方法、装置、设备以及存储介质 |
CN113010138B (zh) * | 2021-03-04 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 文章的语音播放方法、装置、设备及计算机可读存储介质 |
CN113850083A (zh) * | 2021-08-17 | 2021-12-28 | 北京百度网讯科技有限公司 | 确定播报风格的方法、装置、设备和计算机存储介质 |
CN117521628B (zh) * | 2023-11-20 | 2024-05-28 | 中诚华隆计算机技术有限公司 | 基于人工智能的剧本创作方法、装置、设备及芯片 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040260551A1 (en) * | 2003-06-19 | 2004-12-23 | International Business Machines Corporation | System and method for configuring voice readers using semantic analysis |
CN102117614B (zh) * | 2010-01-05 | 2013-01-02 | 索尼爱立信移动通讯有限公司 | 个性化文本语音合成和个性化语音特征提取 |
CN105185372B (zh) * | 2015-10-20 | 2017-03-22 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN108053696A (zh) * | 2018-01-04 | 2018-05-18 | 广州阿里巴巴文学信息技术有限公司 | 一种根据阅读内容进行声音播放的方法、装置和终端设备 |
-
2018
- 2018-06-29 CN CN201810695218.1A patent/CN108962219B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108962219A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108962219B (zh) | 用于处理文本的方法和装置 | |
KR102582291B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
US9916825B2 (en) | Method and system for text-to-speech synthesis | |
US11475897B2 (en) | Method and apparatus for response using voice matching user category | |
CN108132995A (zh) | 用于处理音频信息的方法和装置 | |
Rachman et al. | DAVID: An open-source platform for real-time transformation of infra-segmental emotional cues in running speech | |
EP3616190A1 (en) | Automatic song generation | |
EP3151239A1 (en) | Method and system for text-to-speech synthesis | |
Johar | Emotion, affect and personality in speech: The Bias of language and paralanguage | |
Arias et al. | Beyond correlation: acoustic transformation methods for the experimental study of emotional voice and speech | |
CN107707745A (zh) | 用于提取信息的方法和装置 | |
CN113010138B (zh) | 文章的语音播放方法、装置、设备及计算机可读存储介质 | |
Dhanjal et al. | An automatic machine translation system for multi-lingual speech to Indian sign language | |
Schuller et al. | Synthesized speech for model training in cross-corpus recognition of human emotion | |
CN112309365A (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
Tóth et al. | Speech emotion perception by human and machine | |
CN112908292A (zh) | 文本的语音合成方法、装置、电子设备及存储介质 | |
CN111477210A (zh) | 语音合成方法和装置 | |
CN112765971A (zh) | 文本语音的转换方法、装置、电子设备及存储介质 | |
Gibbon | Prosody: The rhythms and melodies of speech | |
CN111415651A (zh) | 一种音频信息提取方法、终端及计算机可读存储介质 | |
López-Ludeña et al. | LSESpeak: A spoken language generator for Deaf people | |
CN110930975A (zh) | 用于输出信息的方法和装置 | |
US20190088258A1 (en) | Voice recognition device, voice recognition method, and computer program product | |
Sannino et al. | Lessonable: leveraging deep fakes in MOOC content creation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |