CN110189742A - 确定情感音频、情感展示、文字转语音的方法和相关装置 - Google Patents
确定情感音频、情感展示、文字转语音的方法和相关装置 Download PDFInfo
- Publication number
- CN110189742A CN110189742A CN201910464491.8A CN201910464491A CN110189742A CN 110189742 A CN110189742 A CN 110189742A CN 201910464491 A CN201910464491 A CN 201910464491A CN 110189742 A CN110189742 A CN 110189742A
- Authority
- CN
- China
- Prior art keywords
- emotion
- emoticon
- dimension
- audio
- characteristic words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
本公开实施例提供了一种确定情感音频、情感展示、文字转语音的方法和相关装置。其中,该确定情感音频的方法可以包括:获取待处理情感数据;确定情感维度和表情符号;从待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与情感特征词对应的情感语气词;将情感特征词和/或情感语气词,与对应的表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系;基于对应关系,对表情符号配置相匹配的音频;其中,音频为表情符号的读音或与表情符号的表意相一致的音效。通过本公开实施例,解决了如何使得数据情感表达贴合实际情感交流的技术问题,增强了表情符号的表现效果,实现了更拟人、更自然的情感化体验。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种确定情感音频、情感展示、文字转语音的方法和相关装置。
背景技术
目前,随着科技的不断发展,人机交互技术的应用也越来越广。例如,文本转语音技术(Text to Speech,缩写TTS)越来越受到重视。该TTS技术通过文本分析、语音合成和韵律生成等步骤完成文本数据到语音的转换。
然而,传统的文本转语音技术所采用的工作方式是“见字读字”。这种工作方式所得到的语音结果生硬,远离了人们实际的情感交流。
因此,现有技术因为采用了“见字读字”的工作方式而存在数据情感表达不能够贴合实际情感交流的缺陷。
发明内容
本公开实施例的目的在于提供一种确定情感音频、情感展示、文字转语音的方法和相关装置,以解决如何使得数据情感表达贴合实际情感交流的技术问题。
为了实现上述目的,第一方面,本发明提供了以下技术方案:
一种确定情感音频的方法,其中,所述方法包括:
获取待处理情感数据;
确定情感维度和表情符号;
从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词;
将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系;
基于所述对应关系,对所述表情符号配置相匹配的音频;其中,所述音频为所述表情符号的读音或与所述表情符号的表意相一致的音效。
进一步地,从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词的步骤,具体包括:
从所述待处理情感数据中,提取所述情感特征词和所述情感语气词;
按照所述情感维度的各维度,分别对所述情感特征词和与所述情感特征词对应的所述情感语气词进行分类。
进一步地,将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系的步骤,具体包括:
基于所述待处理情感数据,确定所述情感特征词的使用频次;
在情感维度中各维度内,基于分类在所述情感维度中所述各维度内情感特征词的使用频次,按照预定规则,对所述情感特征词和与之对应的情感语气词进行排序;
根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词;
基于选取结果,将所述情感特征词和/或所述情感语气词与所述表情符号进行映射,形成所述情感特征词和/或所述情感语气词与所述表情符号之间的所述对应关系。
进一步地,对所述表情符号配置相匹配的音频的步骤,具体包括:
确定与所述表情符号相匹配的音频;
如果所述表情符号为颜文字表情符号,则利用最大字符串匹配方式,将所述颜文字表情符号与所述音频相关联;
如果所述表情符号为emoji表情符号,则将所述emoji表情符号与所述颜文字表情符号相关联。
进一步地,所述方法还包括:
确定与所述表情符号相匹配的所述音频的表现风格;
确定情感维度和表情符号的步骤,还包括:
根据所述表现风格,确定所述情感维度中各维度之间所占的第一比例;
从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词的步骤,还包括:
根据所述第一比例,确定所述情感维度中所述各维度对应的情感特征词占所述待处理情感数据的第二比例。
为了实现上述目的,第二方面,本发明还提供了以下技术方案:
一种情感展示方法,其中,所述方法包括:
获取情感语气词和/或情感表情符号;
利用本发明第一方面所述确定情感音频的方法,确定情感语气词和/或情感表情符号对应的情感音频;
播放所述情感音频。
为了实现上述目的,第三方面,本发明还提供了以下技术方案:
一种文字转语音的方法,包括:
获取一段文本数据,所述文本数据包括情感表情符号;
根据所述情感表情符号和音频的映射列表,确定所述情感表情符号所代表的音频,所述音频为所述情感表情符号的读音或与所述情感表情符号的表意相一致的音效;
输出所述音频。
为了实现上述目的,第四方面,本发明还提供了以下技术方案:
一种确定情感音频的装置,其包括:
获取模块,用于获取待处理情感数据;
第一确定模块,用于确定情感维度和表情符号;
第二确定模块,用于从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词;
映射模块,用于将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系;
配置模块,用于基于所述对应关系,对所述表情符号配置相匹配的音频;其中,所述音频为所述表情符号的读音或与所述表情符号的表意相一致的音效。
进一步地,所述第二确定模块具体用于:
从所述待处理情感数据中,提取所述情感特征词和所述情感语气词;
按照所述情感维度的各维度,分别对所述情感特征词和与所述情感特征词对应的所述情感语气词进行分类。
进一步地,所述映射模块具体用于:
基于所述待处理情感数据,确定所述情感特征词的使用频次;
在情感维度中各维度内,基于分类在所述情感维度中所述各维度内情感特征词的使用频次,按照预定规则,对所述情感特征词和与之对应的情感语气词进行排序;
根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词;
基于选取结果,将所述情感特征词和/或所述情感语气词与所述表情符号进行映射,形成所述情感特征词和/或所述情感语气词与所述表情符号之间的所述对应关系。
进一步地,所述配置模块具体用于:
确定与所述表情符号相匹配的音频;
如果所述表情符号为颜文字表情符号,则利用最大字符串匹配方式,将所述颜文字表情符号与所述音频相关联;
如果所述表情符号为emoji表情符号,则将所述emoji表情符号与所述颜文字表情符号相关联。
进一步地,所述装置还包括:
第三确定模块,用于确定与所述表情符号相匹配的所述音频的表现风格;
所述第一确定模块,还用于根据所述表现风格,确定所述情感维度中各维度之间所占的第一比例;
所述第二确定模块,还用于:根据所述第一比例,确定所述情感维度中所述各维度对应的情感特征词占所述待处理情感数据的第二比例。
为了实现上述目的,第五方面,本发明还提供了以下技术方案:
一种情感展示装置,其包括:
获取模块,用于获取情感语气词和/或情感表情符号;
确定模块,用于利用本发明第四方面所述确定情感音频的装置,确定情感语气词和/或情感表情符号对应的情感音频;
播放模块,用于播放所述情感音频。
为了实现上述目的,第六方面,本发明还提供了以下技术方案:
一种文字转语音的装置,包括:
获取模块,用于获取一段文本数据,所述文本数据包括情感表情符号;
确定模块,用于根据所述情感表情符号和音频的映射列表,确定所述情感表情符号所代表的音频,所述音频为所述表情符号的读音或与所述表情符号的表意相一致的音效;
输出模块,用于输出所述音频。
为了实现上述目的,第七方面,本发明还提供了以下技术方案:
一种智能音箱,其包括处理器和存储器;其中:
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现本发明第一方面至第三方面中任一所述的方法步骤。
为了实现上述目的,第八方面,本发明还提供了以下技术方案:
一种电子设备,其包括处理器和存储器;其中:
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现本发明第一方面至第三方面中任一所述的方法步骤。
为了实现上述目的,第九方面,本发明还提供了以下技术方案:
一种计算机可读存储介质,其中,其用于存储非暂时性计算机可读指令,当所述非暂时性计算机可读指令由计算机执行时,使得所述计算机执行本发明第一方面至第三方面中任意一项所述的方法。
本公开实施例提供一种确定情感音频、情感展示、文字转语音的方法和相关装置。其中,该确定情感音频的方法可以包括:获取待处理情感数据;确定情感维度和表情符号;从待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与情感特征词对应的情感语气词;将情感特征词和/或情感语气词,与对应的表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系;基于对应关系,对表情符号配置相匹配的音频;其中,音频为表情符号的读音或与表情符号的表意相一致的音效。
通过本公开实施例,对情感特征词和情感语气词进行分类,并将情感特征词和情感语气词与表情符号相对应,且配以音频,从而将文字等数据所传达的情感因素与有声语言表达的特点结合起来,贴合了真人交流的情感,由此实现了如何使得数据情感表达贴合实际情感交流的技术效果,增强了表情符号的表现效果,实现了更拟人、更自然的情感化体验。
为了能更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而得以体现。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本公开实施例的确定情感音频的方法的流程示意图;
图2为根据本公开实施例的情感展示方法的流程示意图;
图3为根据本公开实施例的确定情感音频的装置的结构示意图;
图4为根据本公开实施例的情感展示装置的结构示意图。
具体实施方式
下面通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本发明,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例提供一种确定情感音频的方法。如图1所示,该方法可以包括步骤S100至步骤S140。其中:
S100:获取待处理情感数据。
其中,该待处理情感数据基于预定的人设而确定;该待处理数据包括该人设所处场景的描述数据、该人设所表达的话题数据和有关该话题的内容数据。
其中,该预定的人设可以为二次元萌妹等动画、游戏、影视等中的角色。该人设可以根据实际情况进行确定。例如,可以基于智能音箱来选定相应的人设。
以动画片中的角色为例,对该待处理情感数据进行说明。该待处理情感数据可以包括动画片中的某个场景的描述数据(或者称为主题数据)、角色所表达的话题数据和有关该话题数据的内容数据。
该待处理情感数据可以通过数据抓取的方式来获得。
S110:确定情感维度和表情符号。
其中,情感维度中各维度例如可以为正向情感维度、中性情感维度和负向情感维度。
其中,表情符号作为文本语言或书面语言的表达特点之一,其包括但不限于颜文字表情符号、emoji表情符号。其中,颜文字表情符号是指采用标点符号、数学符号、单位符号、数字序号、希腊字母、俄语字符、汉语拼音、中文字符、日语、注音码、绘表符号、图形符号等组成的表达情绪的表情符号集。emoji表情符号可以是指微信、QQ等聊天软件上的图形符号。
S120:从待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与该情感特征词对应的情感语气词。
其中,情感特征词包括但不限于:快乐、可定、疑问、感叹、悲伤等。
上述情感语气词包括但不限于:啊、吧、呢、耶、哇、嗯嗯、唉等。
表一示例性地示出了从待处理情感数据中提取对应的情感特征词和与该情感特征词对应的情感语气词的结果。
表一:
情感维度 | 情感特征词 | 情感语气词 |
正向情感维度 | 快乐 | 哈哈 |
中兴情感维度 | 疑问 | 什么 |
负向情感维度 | 悲伤 | 唉 |
如表一所示,本步骤从待处理情感数据中,分别针对正向情感维度“快乐”、中性情感维度“疑问”和负向情感维度“悲伤”,确定对应的情感特征词“快乐”、“疑问”“悲伤”和情感语气词“哈哈”、“什么”、“唉”。
这里,需要注意的是,在实际应用中,可以不局限于表一所示的形式。各个情感维度可以分别对应多个情感特征词。单一的情感特征词可以对应于零个或一个亦或多个情感语气词。多个情感特征词可以对应于多个情感语气词。本发明对情感维度、情感特征词和情感语气词之间对应的数量关系不作限定。
在一个可选的实施例中,步骤S120具体还可以包括:
S121:从待处理情感数据中,提取情感特征词和情感语气词;
S122:按照情感维度的各维度,分别对情感特征词和与该情感特征词对应的情感语气词进行分类。
在本步骤中,将情感特征词和与该情感特征词对应的情感语气词归类于情感维度中的不同维度可以有多种实施方式。每一种情感维度可以对应一种或多种情感特征词,例如,正向情感维度可以对应快乐、惊喜、兴奋等情感特征词。一种情感特征词也可以对应多个情感语气词,例如,快乐可以对应于哈哈、嘻嘻、嘿嘿等多个情感语气词。多种情感特征词可以对应于多个情感语气词,例如,惊喜和兴奋可以对应于耶、哇、哇塞等情感语气词。本发明对此不作限定。
S130:将情感特征词和/或情感语气词与对应的表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系。
表二示例性地示出了情感特征词与表情符号之间的对应关系。
表二:
如表二所示,颜文字表情符号、emoji表情符号和情感特征词相对应。
本领域技术人员可以理解,因为情感特征词对应于情感维度;所以,表情符号也对应于情感维度。
表三示例性地示出了情感维度、情感特征词和表情符号之间的对应关系。
表三:
如表三所示,正向情感维度对应于快乐、兴奋和赞扬三个情感特征词;中性情感维度对应于肯定、疑问和感叹三个情感特征词;负向情感特征词对应于悲伤和失落两个情感特征词;各个情感特征词分别对应于一个表情符号。
在一个可选的实施例中,步骤S130具体可以包括:
S131:基于待处理情感数据,确定情感特征词的使用频次。
该情感特征词的使用频次可以通过对待处理情感数据中情感特征词出现的次数进行统计而得到。
S132:在情感维度中各维度内,基于分类在该情感维度中各维度内情感特征词的使用频次,按照预定规则,对情感特征词和与之对应的情感语气词进行排序。
在本步骤中,可以按照情感特征词的使用频次从高到低的预定规则,对情感语气词进行排序。当然,也可以按照情感特征词的使用频次从低到高或其他的预定规则,来对情感语气词进行排序。对情感语气词按使用频次从高到低进行排序,可以将使用频次较高情感语气词筛选出来,减少后续匹配音频的工作量。
表四示例性地示出了在情感维度中各维度内,基于情感特征词的使用频次,按照预定规则,对情感特征词和与之对应的情感语气词进行排序的结果。
表四:
如表四所示,分别在正向情感维度、中性情感维度和负向情感维度内,基于分类在各自情感维度内的情感特征词的使用频次,按照从大到小的预定规则,对情感特征词和与该情感特征词对应的情感语气词进行排序。例如,在正向情感维度内,按照快乐、惊喜和兴奋的顺序,将对应于快乐的哈哈、嘻嘻和嘿嘿,对应于惊喜的耶、哇和哇塞,对应于兴奋的耶、哇和哇塞进行排序。其中,由于惊喜和兴奋对应于相同的情感语气词,所以,将对应于惊喜和兴奋的情感语气词排在对应于快乐的情感语气词之后即可。
S133:根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词。
S134:基于选取结果,将情感特征词和/或情感语气词与表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系。
S140:基于该对应关系,对表情符号配置与之相匹配的音频;其中,该音频为表情符号的读音或与该表情符号的表意相一致的音效。
其中,该音频可以预先进行设定,例如,可以根据人设角色的特点来确定。
表情符号的读音可以采用诸如专业发音人的录音。
具体地,步骤S140可以包括:
S141:确定与表情符号相匹配的音频;
S142:如果该表情符号为颜文字表情符号,则利用最大字符串匹配方式,将该颜文字表情符号与该音频相关联;
S143:如果该表情符号为emoji表情符号,则将该emoji表情符号与该颜文字表情符号相关联。
在本实施例中,因为每一个emoji表情符号对应于唯一的国际通用代码;所以,通过该国际通用代码,可以实现emoji表情符号与颜文字表情符号的关联。
在一个可选的实施例中,该方法还可以包括:步骤Sa1至步骤Sa3。其中:
Sa1:确定与表情符号相匹配的音频的表现风格。
例如,可以将待确定情感音频的表现风格确定为中性风格或偏正向风格等。
步骤S110还可以包括:
Sa2:根据该表现风格,确定情感维度中各维度之间所占的第一比例。
以表现风格为中性风格为例,如果情感维度包括正向情感维度、中性情感维度和负向情感维度,则可以将情感维度中各维度之间所占的第一比例确定为20%、70%、10%,即:将正向情感维度、中性情感维度和负向情感维度之间所占的第一比例确定为20%、70%、10%。
步骤S120还可以包括:
Sa3:根据该第一比例,确定情感维度中各维度对应的情感特征词占待处理情感数据的第二比例。
沿用前述例子,在将正向情感维度、中性情感维度和负向情感维度之间所占的第一比例调整为20%、70%、10%的情况下,调整正向情感维度、中性情感维度和负向情感维度对应的情感特征词占待处理情感数据的第二比例。通过调整第二比例,可以改变情感维度所对应的情感特征词的数量。
表五示例性地示出了根据表现风格确定第一比例和第二比例的结果。
表五:
情感维度 | 正向情感维度 | 中性情感维度 | 负向情感维度 |
第一比例 | 20% | 70% | 10% |
情感特征词 | 快乐、兴奋、赞扬 | 肯定、疑问、感叹 | 悲伤、失落 |
第二比例 | 20% | 70% | 10% |
如表五所示,根据表现风格,确定情感维度中正向情感维度、中性情感维度、负向情感维度之间所占的第一比例分别为20%、70%、10%;并根据该第一比例,确定情感维度中各维度对应的情感特征词占待处理情感数据的第二比例分别为20%、70%、10%。
在实际应用中,可以预先确定表情符号优化种类,并将其按照正向、中性、负向三大情感维度进行分类。然后,根据基础音库的整体风格,对三大情感维度中的情感特征词所占比例进行调整,以与基础音库整体风格的一致性。
综上所示,本公开实施例将基于情感维度,对情感特征词和情感语气词进行分类,并将情感特征词和情感语气词与表情符号相对应,且配以音频,从而将文字等数据所传达的情感因素与有声语言表达的特点结合起来,贴合了真人交流的情感,由此实现了如何使得数据情感表达贴合实际情感交流的技术效果,增强了表情符号的表现效果,实现了更拟人、更自然的情感化体验。
另外,基于与上述确定情感音频的方法实施例相同的技术构思,为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例还提供一种情感展示方法。如图2所示,该情感展示方法可以包括:
S200:获取情感语气词和/或情感表情符号;
S210:利用上述确定情感音频的方法实施例提供的确定情感音频的方法,确定情感语气词和/或情感表情符号对应的情感音频;
S220:播放该情感音频。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的情感展示方法实施例的具体工作过程及其解决的技术问题和取得的技术效果,可以参考前述方法实施例中的对应过程及其解决的技术问题和取得的技术效果,在此不再赘述。
本实施例通过上述技术方案,将文字等数据所传达的情感因素与有声语言表达的特点结合起来,将情感语气词和/或表情符号,以语音的形式展示出来,实现了如何使得数据情感表达贴合实际情感交流的技术效果,最大限度地贴合了真人交流的情感,增强了表情符号的表现效果,实现了更拟人、更自然的情感化体验。
此外,本公开实施例还提供一种文字转语音的方法。该文字转语音的方法可以包括:
Sa1:获取一段文本数据,文本数据包括情感表情符号;
Sa2:根据情感表情符号和音频的映射列表,确定情感表情符号所代表的音频,音频为情感表情符号的读音或与情感表情符号的表意相一致的音效;
Sa3:输出音频。
本公开实施例通过上述技术方案,将包含情感表情符号的文本数据,以音频的形式进行输出,从而可以将文本数据所承载的情感因素,通过音频来输出出来,由此可以使得人机交互更加自然,能够最大限度地贴合实际的情感交流。
在上文中,虽然按照上述的顺序描述了确定情感音频的方法实施例、情感展示方法实施例中的各个步骤,本领域技术人员应清楚,本公开实施例中的步骤并不必然按照上述顺序执行,其也可以倒序、并行、交叉等其他顺序执行,而且,在上述步骤的基础上,本领域技术人员也可以再加入其他步骤,这些明显变型或等同替换的方式也应包含在本发明的保护范围之内,在此不再赘述。
下面为本发明装置实施例,本发明装置实施例用于执行本发明方法实施例实现的步骤,为了便于说明,仅示出了与本公开实施例相关的部分,具体技术细节未揭示的,请参照本发明方法实施例。在本发明各个装置实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例提供一种确定情感音频的装置。如图3所示,该装置可以包括:获取模块31、第一确定模块32、第二确定模块33、映射模块34和配置模块35。其中,获取模块31用于获取待处理情感数据。第一确定模块32用于确定情感维度和表情符号。第二确定模块33用于从待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与情感特征词对应的情感语气词。映射模块34用于将情感特征词和/或情感语气词,与对应的表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系。配置模块35用于基于该对应关系,对表情符号配置相匹配的音频;其中,音频为表情符号的读音或与表情符号的表意相一致的音效。
其中,该待处理情感数据基于预定的人设而确定;该待处理数据包括该人设所处场景的描述数据、该人设所表达的话题数据和有关该话题的内容数据。
上述情感维度中各维度例如可以为正向情感维度、中性情感维度和负向情感维度。
上述表情符号作为文本语言或书面语言的表达特点之一,其包括但不限于颜文字表情符号、emoji表情符号。其中,颜文字表情符号是指采用标点符号、数学符号、单位符号、数字序号、希腊字母、俄语字符、汉语拼音、中文字符、日语、注音码、绘表符号、图形符号等组成的表达情绪的表情符号集。emoji表情符号可以是指微信、QQ等聊天软件上的图形符号。
上述情感特征词包括但不限于:快乐、可定、疑问、感叹、悲伤等。
上述情感语气词包括但不限于:啊、吧、呢、耶、哇、嗯嗯、唉等。
在一个可选的实施例中,第二确定模块33具体用于:从待处理情感数据中,提取情感特征词和情感语气词;按照情感维度的各维度,分别对情感特征词和与情感特征词对应的情感语气词进行分类。
在本实施例中,将情感特征词和与该情感特征词对应的情感语气词归类于情感维度中的不同维度可以有多种实施方式。每一种情感维度可以对应一种或多种情感特征词,例如,正向情感维度可以对应快乐、惊喜、兴奋等情感特征词。一种情感特征词也可以对应多个情感语气词,例如,快乐可以对应于哈哈、嘻嘻、嘿嘿等多个情感语气词。多种情感特征词可以对应于多个情感语气词,例如,惊喜和兴奋可以对应于耶、哇、哇塞等情感语气词。本发明对此不作限定。
在一个可选的实施例中,映射模块34具体用于:基于待处理情感数据,确定情感特征词的使用频次;在情感维度中各维度内,基于分类在情感维度中各维度内情感特征词的使用频次,按照预定规则,对情感特征词和与之对应的情感语气词进行排序;根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词;基于选取结果,将情感特征词和/或情感语气词与表情符号进行映射,形成情感特征词和/或情感语气词与表情符号之间的对应关系。
其中,可以按照情感特征词的使用频次从高到低的预定规则,对情感语气词进行排序。当然,也可以按照情感特征词的使用频次从低到高或其他的预定规则,来对情感语气词进行排序。
在一个可选的实施例中,配置模块35具体用于:确定与表情符号相匹配的音频;如果表情符号为颜文字表情符号,则利用最大字符串匹配方式,将颜文字表情符号与音频相关联;如果表情符号为emoji表情符号,则将emoji表情符号与颜文字表情符号相关联。
在一个可选的实施例中,确定情感音频的装置还包括第三确定模块。其中,第三确定模块用于确定与表情符号相匹配的音频的表现风格。第一确定模块32还用于根据表现风格,确定情感维度中各维度之间所占的第一比例。第二确定模块33还用于根据第一比例,确定情感维度中各维度对应的情感特征词占待处理情感数据的第二比例。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置实施例的具体工作过程及其解决的技术问题和取得的技术效果,可以参考前述方法实施例中的对应过程及其解决的技术问题和取得的技术效果,在此不再赘述。
为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例还提供一种情感展示装置。如图4所示,该装置可以包括:获取模块41、确定模块42和播放模块43。其中,获取模块41用于获取情感语气词和/或情感表情符号。确定模块42用于利用前述确定情感音频的装置实施例,确定情感语气词和/或情感表情符号对应的情感音频。播放模块43用于播放情感音频。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的情感展示装置实施例的具体工作过程及其解决的技术问题和取得的技术效果,可以参考前述情感展示方法实施例中的对应过程及其解决的技术问题和取得的技术效果,在此不再赘述。
此外,本公开实施例还提供一种文字转语音的装置。该文字转语音装置可以包括:获取模块、确定模块和输出模块。其中,获取模块用于获取一段文本数据,所述文本数据包括情感表情符号。确定模块用于根据所述情感表情符号和音频的映射列表,确定所述情感表情符号所代表的音频,所述音频为所述情感表情符号的读音或与所述情感表情符号的表意相一致的音效。输出模块用于输出所述音频。
本公开实施例利用获取模块、确定模块和输出模块,将包含情感表情符号的文本数据,以音频的形式进行输出,从而可以将文本数据所承载的情感因素,通过音频来输出出来,由此可以使得人机交互更加自然,能够最大限度地贴合实际的情感交流。
为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例还提供一种智能音箱,其包括处理器和存储器。其中,存储器用于存放计算机程序。处理器用于执行存储器上所存放的程序时,实现权利要求1-6中任一的方法步骤。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的智能音箱实施例的具体工作过程及其解决的技术问题和取得的技术效果,可以参考前述确定情感音频的方法实施例或情感展示方法实施例中的对应过程及其解决的技术问题和取得的技术效果,在此不再赘述。
本公开实施例还提供一种电子设备,其包括处理器和存储器。其中,存储器用于存放计算机程序。处理器用于执行存储器上所存放的程序时,实现确定情感音频的方法实施例或情感展示方法实施例中任一的方法步骤。
上述处理器可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
上述存储器可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器所执行。
在一些实施例中,该电子设备还可选地包括:外围设备接口和至少一个外围设备。处理器、存储器和外围设备接口之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口相连。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的电子设备实施例的具体工作过程及其解决的技术问题和取得的技术效果,可以参考前述确定情感音频的方法实施例或情感展示方法实施例中的对应过程及其解决的技术问题和取得的技术效果,在此不再赘述。
为了解决如何使得数据情感表达贴合实际情感交流的技术问题,本公开实施例还提供一种计算机可读存储介质,其特征在于,其用于存储非暂时性计算机可读指令,当非暂时性计算机可读指令由计算机执行时,使得计算机执行如确定情感音频的方法实施例或情感展示方法实施例所述的步骤。
该计算机可读存储介质可应用于终端,该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该指令、该程序、该代码集或该指令集由处理器加载并执行以实现。
上述计算机可读存储介质可以包括但不限于随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦写可编程只读存储器(EPROM)、电可擦写可编程只读存储器(EEPROM)、闪存(例如,NOR型闪存或NAND型闪存)、内容可寻址存储器(CAM)、聚合物存储器(例如,铁电聚合物存储器)、相变存储器、双向开关半导体存储器、硅-氧化物-氮化硅-氧化硅-硅(Silicon-Oxide-Nitride-Oxide-Silicon,SONOS)存储器、磁卡或者光卡,亦或是其他任意适当类型的计算机可读存储介质。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。本说明书中的各个实施例均采用相关的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进、改变、添加和子组合等,均包含在本发明的保护范围内。
Claims (17)
1.一种确定情感音频的方法,其特征在于,所述方法包括:
获取待处理情感数据;
确定情感维度和表情符号;
从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词;
将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系;
基于所述对应关系,对所述表情符号配置相匹配的音频;其中,所述音频为所述表情符号的读音或与所述表情符号的表意相一致的音效。
2.根据权利要求1所述的方法,其特征在于,从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词的步骤,具体包括:
从所述待处理情感数据中,提取所述情感特征词和所述情感语气词;
按照所述情感维度的各维度,分别对所述情感特征词和与所述情感特征词对应的所述情感语气词进行分类。
3.根据权利要求1所述的方法,其特征在于,将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系的步骤,具体包括:
基于所述待处理情感数据,确定所述情感特征词的使用频次;
在情感维度中各维度内,基于分类在所述情感维度中所述各维度内情感特征词的使用频次,按照预定规则,对所述情感特征词和与之对应的情感语气词进行排序;
根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词;
基于选取结果,将所述情感特征词和/或所述情感语气词与所述表情符号进行映射,形成所述情感特征词和/或所述情感语气词与所述表情符号之间的所述对应关系。
4.根据权利要求1所述的方法,其特征在于,对所述表情符号配置相匹配的音频的步骤,具体包括:
确定与所述表情符号相匹配的音频;
如果所述表情符号为颜文字表情符号,则利用最大字符串匹配方式,将所述颜文字表情符号与所述音频相关联;
如果所述表情符号为emoji表情符号,则将所述emoji表情符号与所述颜文字表情符号相关联。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定与所述表情符号相匹配的所述音频的表现风格;
确定情感维度和表情符号的步骤,还包括:
根据所述表现风格,确定所述情感维度中各维度之间所占的第一比例;
从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词的步骤,还包括:
根据所述第一比例,确定所述情感维度中所述各维度对应的情感特征词占所述待处理情感数据的第二比例。
6.一种情感展示方法,其特征在于,所述方法包括:
获取情感语气词和/或情感表情符号;
利用如权利要求1-5中任一所述确定情感音频的方法,确定情感语气词和/或情感表情符号对应的情感音频;
播放所述情感音频。
7.一种文字转语音的方法,包括:
获取一段文本数据,所述文本数据包括情感表情符号;
根据所述情感表情符号和音频的映射列表,确定所述情感表情符号所代表的音频,所述音频为所述情感表情符号的读音或与所述情感表情符号的表意相一致的音效;
输出所述音频。
8.一种确定情感音频的装置,其特征在于,所述装置包括:
获取模块,用于获取待处理情感数据;
第一确定模块,用于确定情感维度和表情符号;
第二确定模块,用于从所述待处理情感数据中,分别针对情感维度中各维度确定对应的情感特征词和与所述情感特征词对应的情感语气词;
映射模块,用于将所述情感特征词和/或所述情感语气词,与对应的表情符号进行映射,形成所述情感特征词和/或情感语气词与所述表情符号之间的对应关系;
配置模块,用于基于所述对应关系,对所述表情符号配置相匹配的音频;其中,所述音频为所述表情符号的读音或与所述表情符号的表意相一致的音效。
9.根据权利要求8所述的装置,其特征在于,所述第二确定模块具体用于:
从所述待处理情感数据中,提取所述情感特征词和所述情感语气词;
按照所述情感维度的各维度,分别对所述情感特征词和与所述情感特征词对应的所述情感语气词进行分类。
10.根据权利要求8所述的装置,其特征在于,所述映射模块具体用于:
基于所述待处理情感数据,确定所述情感特征词的使用频次;
在情感维度中各维度内,基于分类在所述情感维度中所述各维度内情感特征词的使用频次,按照预定规则,对所述情感特征词和与之对应的情感语气词进行排序;
根据排序结果,选取预定数量的情感特征词和与之对应的情感语气词;
基于选取结果,将所述情感特征词和/或所述情感语气词与所述表情符号进行映射,形成所述情感特征词和/或所述情感语气词与所述表情符号之间的所述对应关系。
11.根据权利要求8所述的装置,其特征在于,所述配置模块具体用于:
确定与所述表情符号相匹配的音频;
如果所述表情符号为颜文字表情符号,则利用最大字符串匹配方式,将所述颜文字表情符号与所述音频相关联;
如果所述表情符号为emoji表情符号,则将所述emoji表情符号与所述颜文字表情符号相关联。
12.根据权利要求8所述的装置,其特征在于,所述装置还包括:
第三确定模块,用于确定与所述表情符号相匹配的所述音频的表现风格;
所述第一确定模块,还用于根据所述表现风格,确定所述情感维度中各维度之间所占的第一比例;
所述第二确定模块,还用于:根据所述第一比例,确定所述情感维度中所述各维度对应的情感特征词占所述待处理情感数据的第二比例。
13.一种情感展示装置,其特征在于,所述装置包括:
获取模块,用于获取情感语气词和/或情感表情符号;
确定模块,用于利用如权利要求8-12中任一所述确定情感音频的装置,确定情感语气词和/或情感表情符号对应的情感音频;
播放模块,用于播放所述情感音频。
14.一种文字转语音的装置,包括:
获取模块,用于获取一段文本数据,所述文本数据包括情感表情符号;
确定模块,用于根据所述情感表情符号和音频的映射列表,确定所述情感表情符号所代表的音频,所述音频为所述情感表情符号的读音或与所述情感表情符号的表意相一致的音效;
输出模块,用于输出所述音频。
15.一种智能音箱,其特征在于,包括处理器和存储器;其中:
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现权利要求1-6中任一所述的方法步骤。
16.一种电子设备,其特征在于,包括处理器和存储器;其中:
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现权利要求1-6中任一所述的方法步骤。
17.一种计算机可读存储介质,其特征在于,其用于存储非暂时性计算机可读指令,当所述非暂时性计算机可读指令由计算机执行时,使得所述计算机执行如权利要求1-6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910464491.8A CN110189742B (zh) | 2019-05-30 | 2019-05-30 | 确定情感音频、情感展示、文字转语音的方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910464491.8A CN110189742B (zh) | 2019-05-30 | 2019-05-30 | 确定情感音频、情感展示、文字转语音的方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110189742A true CN110189742A (zh) | 2019-08-30 |
CN110189742B CN110189742B (zh) | 2021-10-08 |
Family
ID=67719078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910464491.8A Active CN110189742B (zh) | 2019-05-30 | 2019-05-30 | 确定情感音频、情感展示、文字转语音的方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110189742B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110853606A (zh) * | 2019-11-26 | 2020-02-28 | Oppo广东移动通信有限公司 | 一种音效配置方法、装置及计算机可读存储介质 |
WO2021212954A1 (zh) * | 2020-04-21 | 2021-10-28 | 升智信息科技(南京)有限公司 | 极低资源下的特定发音人情感语音合成方法及装置 |
CN113761204A (zh) * | 2021-09-06 | 2021-12-07 | 南京大学 | 一种基于深度学习的emoji文本情感分析方法及系统 |
Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040107101A1 (en) * | 2002-11-29 | 2004-06-03 | Ibm Corporation | Application of emotion-based intonation and prosody to speech in text-to-speech systems |
CN1655231A (zh) * | 2004-02-10 | 2005-08-17 | 乐金电子(中国)研究开发中心有限公司 | 文本语音转换系统的表情图释处理方法 |
US6963839B1 (en) * | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
CN1735240A (zh) * | 2004-10-29 | 2006-02-15 | 康佳集团股份有限公司 | 一种手机短消息中表情符号及语音的实现方法 |
CN101207586A (zh) * | 2006-12-19 | 2008-06-25 | 国际商业机器公司 | 用于实时自动通信的方法和系统 |
US20090144366A1 (en) * | 2007-12-04 | 2009-06-04 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
CN101981614A (zh) * | 2008-04-08 | 2011-02-23 | 株式会社Ntt都科摩 | 媒体处理服务器设备及其媒体处理方法 |
CN102045661A (zh) * | 2010-09-29 | 2011-05-04 | 深圳市五巨科技有限公司 | 一种移动终端在线聊天的方法、装置和系统 |
US20110238406A1 (en) * | 2010-03-23 | 2011-09-29 | Telenav, Inc. | Messaging system with translation and method of operation thereof |
US20140067397A1 (en) * | 2012-08-29 | 2014-03-06 | Nuance Communications, Inc. | Using emoticons for contextual text-to-speech expressivity |
CN103699626A (zh) * | 2013-12-20 | 2014-04-02 | 华南理工大学 | 一种微博用户个性化情感倾向分析方法及系统 |
CN103761963A (zh) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | 包含情感类信息的文本的处理方法 |
US20140163980A1 (en) * | 2012-12-10 | 2014-06-12 | Rawllin International Inc. | Multimedia message having portions of media content with audio overlay |
CN104053131A (zh) * | 2013-03-12 | 2014-09-17 | 华为技术有限公司 | 一种文本通讯信息处理方法及相关设备 |
US20150255057A1 (en) * | 2013-11-21 | 2015-09-10 | Chatfish Ltd. | Mapping Audio Effects to Text |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106445914A (zh) * | 2016-09-13 | 2017-02-22 | 清华大学 | 微博情感分类器的构建方法及构建装置 |
CN107437413A (zh) * | 2017-07-05 | 2017-12-05 | 百度在线网络技术(北京)有限公司 | 语音播报方法及装置 |
CN107729320A (zh) * | 2017-10-19 | 2018-02-23 | 西北大学 | 一种基于时序分析用户会话情感趋势的表情符号推荐方法 |
CN107862087A (zh) * | 2017-12-01 | 2018-03-30 | 广州简亦迅信息科技有限公司 | 基于大数据和深度学习的情感分析方法、装置和存储介质 |
CN107943800A (zh) * | 2016-10-09 | 2018-04-20 | 郑州大学 | 一种微博话题舆情计算与分析的方法 |
CN107943789A (zh) * | 2017-11-17 | 2018-04-20 | 新华网股份有限公司 | 话题信息的情绪分析方法、装置及服务器 |
CN108701125A (zh) * | 2015-12-29 | 2018-10-23 | Mz知识产权控股有限责任公司 | 用于建议表情符号的系统和方法 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN109192225A (zh) * | 2018-09-28 | 2019-01-11 | 清华大学 | 语音情感识别和标注的方法及装置 |
CN109451140A (zh) * | 2018-09-25 | 2019-03-08 | 深圳壹账通智能科技有限公司 | 社交消息推送方法、装置、计算机存储介质和终端 |
CN109684478A (zh) * | 2018-12-18 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 分类模型训练方法、分类方法及装置、设备和介质 |
-
2019
- 2019-05-30 CN CN201910464491.8A patent/CN110189742B/zh active Active
Patent Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6963839B1 (en) * | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
US20040107101A1 (en) * | 2002-11-29 | 2004-06-03 | Ibm Corporation | Application of emotion-based intonation and prosody to speech in text-to-speech systems |
CN1655231A (zh) * | 2004-02-10 | 2005-08-17 | 乐金电子(中国)研究开发中心有限公司 | 文本语音转换系统的表情图释处理方法 |
CN1735240A (zh) * | 2004-10-29 | 2006-02-15 | 康佳集团股份有限公司 | 一种手机短消息中表情符号及语音的实现方法 |
CN101207586A (zh) * | 2006-12-19 | 2008-06-25 | 国际商业机器公司 | 用于实时自动通信的方法和系统 |
US8170872B2 (en) * | 2007-12-04 | 2012-05-01 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
US20090144366A1 (en) * | 2007-12-04 | 2009-06-04 | International Business Machines Corporation | Incorporating user emotion in a chat transcript |
CN101981614A (zh) * | 2008-04-08 | 2011-02-23 | 株式会社Ntt都科摩 | 媒体处理服务器设备及其媒体处理方法 |
US20110238406A1 (en) * | 2010-03-23 | 2011-09-29 | Telenav, Inc. | Messaging system with translation and method of operation thereof |
CN102045661A (zh) * | 2010-09-29 | 2011-05-04 | 深圳市五巨科技有限公司 | 一种移动终端在线聊天的方法、装置和系统 |
US20140067397A1 (en) * | 2012-08-29 | 2014-03-06 | Nuance Communications, Inc. | Using emoticons for contextual text-to-speech expressivity |
US9767789B2 (en) * | 2012-08-29 | 2017-09-19 | Nuance Communications, Inc. | Using emoticons for contextual text-to-speech expressivity |
US20140163980A1 (en) * | 2012-12-10 | 2014-06-12 | Rawllin International Inc. | Multimedia message having portions of media content with audio overlay |
CN104053131A (zh) * | 2013-03-12 | 2014-09-17 | 华为技术有限公司 | 一种文本通讯信息处理方法及相关设备 |
US20150255057A1 (en) * | 2013-11-21 | 2015-09-10 | Chatfish Ltd. | Mapping Audio Effects to Text |
CN103699626A (zh) * | 2013-12-20 | 2014-04-02 | 华南理工大学 | 一种微博用户个性化情感倾向分析方法及系统 |
CN103761963A (zh) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | 包含情感类信息的文本的处理方法 |
CN108701125A (zh) * | 2015-12-29 | 2018-10-23 | Mz知识产权控股有限责任公司 | 用于建议表情符号的系统和方法 |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106445914A (zh) * | 2016-09-13 | 2017-02-22 | 清华大学 | 微博情感分类器的构建方法及构建装置 |
CN107943800A (zh) * | 2016-10-09 | 2018-04-20 | 郑州大学 | 一种微博话题舆情计算与分析的方法 |
CN107437413A (zh) * | 2017-07-05 | 2017-12-05 | 百度在线网络技术(北京)有限公司 | 语音播报方法及装置 |
CN107729320A (zh) * | 2017-10-19 | 2018-02-23 | 西北大学 | 一种基于时序分析用户会话情感趋势的表情符号推荐方法 |
CN107943789A (zh) * | 2017-11-17 | 2018-04-20 | 新华网股份有限公司 | 话题信息的情绪分析方法、装置及服务器 |
CN107862087A (zh) * | 2017-12-01 | 2018-03-30 | 广州简亦迅信息科技有限公司 | 基于大数据和深度学习的情感分析方法、装置和存储介质 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN109451140A (zh) * | 2018-09-25 | 2019-03-08 | 深圳壹账通智能科技有限公司 | 社交消息推送方法、装置、计算机存储介质和终端 |
CN109192225A (zh) * | 2018-09-28 | 2019-01-11 | 清华大学 | 语音情感识别和标注的方法及装置 |
CN109684478A (zh) * | 2018-12-18 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 分类模型训练方法、分类方法及装置、设备和介质 |
Non-Patent Citations (3)
Title |
---|
EIGO ITO ET AL: "A Proposal of Intuitive and Immediate Emoticons System", 《2013 4TH INTERNATIONAL CONFERENCE ON INTELLIGENT SYSTEMS, MODELLING AND SIMULATION》 * |
朱虎超等: "燃气行业热线数据的情感分析", 《计算机科学》 * |
顾宇蓉: "网络表情符号初探――以QQ表情为例", 《南通纺织职业技术学院学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110853606A (zh) * | 2019-11-26 | 2020-02-28 | Oppo广东移动通信有限公司 | 一种音效配置方法、装置及计算机可读存储介质 |
WO2021212954A1 (zh) * | 2020-04-21 | 2021-10-28 | 升智信息科技(南京)有限公司 | 极低资源下的特定发音人情感语音合成方法及装置 |
CN113761204A (zh) * | 2021-09-06 | 2021-12-07 | 南京大学 | 一种基于深度学习的emoji文本情感分析方法及系统 |
CN113761204B (zh) * | 2021-09-06 | 2023-07-28 | 南京大学 | 一种基于深度学习的emoji文本情感分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110189742B (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920622A (zh) | 一种意图识别的训练方法、训练装置和识别装置 | |
CN110189742A (zh) | 确定情感音频、情感展示、文字转语音的方法和相关装置 | |
CN107516533A (zh) | 一种会话信息处理方法、装置、电子设备 | |
CN107888843A (zh) | 用户原创内容的混音方法、装置、存储介质及终端设备 | |
CN108847241A (zh) | 将会议语音识别为文本的方法、电子设备及存储介质 | |
US11264006B2 (en) | Voice synthesis method, device and apparatus, as well as non-volatile storage medium | |
CN108228704A (zh) | 识别风险内容的方法及装置、设备 | |
CN109002433A (zh) | 一种文本生成方法及装置 | |
CN109801349B (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
CN110334332A (zh) | 一种演示文稿生成方法、装置、存储介质及电子设备 | |
CN110347790A (zh) | 基于注意力机制的文本查重方法、装置、设备及存储介质 | |
CN112750187A (zh) | 一种动画生成方法、装置、设备及计算机可读存储介质 | |
CN108170676A (zh) | 故事创作的方法、系统和终端 | |
CN111899766B (zh) | 基于深度特征与声学特征寻优融合的语音情感识别方法 | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
Stemle et al. | Using language learner data for metaphor detection | |
Morris et al. | The design space of generative models | |
CN110851650B (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
CN109658931A (zh) | 语音交互方法、装置、计算机设备及存储介质 | |
CN113268593A (zh) | 意图分类和模型的训练方法、装置、终端及存储介质 | |
CN106708789A (zh) | 一种文本处理方法及装置 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN114330285B (zh) | 语料处理方法、装置、电子设备及计算机可读存储介质 | |
CN115270922A (zh) | 说话风格生成方法、装置、电子设备和存储介质 | |
Panda et al. | A rule-based concatenative approach to speech synthesis in Indian language text-to-speech systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |