CN110728983B - 一种信息显示方法、装置、设备及可读存储介质 - Google Patents

一种信息显示方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN110728983B
CN110728983B CN201810777950.3A CN201810777950A CN110728983B CN 110728983 B CN110728983 B CN 110728983B CN 201810777950 A CN201810777950 A CN 201810777950A CN 110728983 B CN110728983 B CN 110728983B
Authority
CN
China
Prior art keywords
emotion
text
information
display
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810777950.3A
Other languages
English (en)
Other versions
CN110728983A (zh
Inventor
金超
翟吉博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN201810777950.3A priority Critical patent/CN110728983B/zh
Publication of CN110728983A publication Critical patent/CN110728983A/zh
Application granted granted Critical
Publication of CN110728983B publication Critical patent/CN110728983B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种信息显示方法、装置、设备及可读存储介质,本申请能够根据输入的语音数据及对应的识别文本数据,确定对象在输入语音时的情绪信息,通过确定的情绪信息可以匹配对应的文本显示模式,进而能够控制识别文本数据按照匹配的文本显示模式进行显示,由于该显示的文本已经是按照用户情绪匹配的显示模式进行显示的,因此无需用户再次对显示的文本进行编辑操作,简化了操作步骤且提高了输入效率。

Description

一种信息显示方法、装置、设备及可读存储介质
技术领域
本申请涉及输入法技术领域,更具体地说,涉及一种信息显示方法、装置、设备及可读存储介质。
背景技术
目前智能手机客户端的输入法系统已经日益发展精进,可以准确获取客户输入文本。进一步地,随着语音技术在输入法领域的大规模推广使用,给输入法领域带来了更快更方便的新的人机交互渠道,极大丰富了输入法的输入途径,提升了输入法效率。
本案发明人研究发现,现有的输入法系统重点都放在如何提高输出的候选词的准确度上,即如何给出用户所想上屏的候选词。对于输入文本上屏之后,用户还存在对上屏的文本进行再次编辑的情况,按照用户情感所想表达的方式,对文本进行加粗、调整字体大小等编辑操作。
按照现有输入法的功能,仍需要用户自行对上屏后的文本进行编辑,以满足用户情感所想表达的方式,导致操作繁琐、输入效率低的问题。
发明内容
有鉴于此,本申请提供了一种信息显示方法、装置、设备及可读存储介质,用于解决现有输入法需要用户对上屏后的文本进行编辑,导致操作繁琐、输入效率低的问题。
为了实现上述目的,现提出的方案如下:
一种信息显示方法,包括:
获取输入的语音数据及所述语音数据对应的识别文本数据;
根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息;
确定与所述情绪信息匹配的文本显示模式;
按照确定的所述文本显示模式,对所述识别文本数据进行显示。
优选地,所述根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息,包括:
根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息;
根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息;
将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息。
优选地,所述根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息,包括:
将所述语音数据输入预置的语音情绪识别模型,得到语义情绪识别模型输出的情绪信息,作为对象在输入所述语音数据时的第一情绪信息;
所述语音情绪识别模型为,以所述对象的语音训练数据为训练样本,以标注的生成语音训练数据时对象的情绪信息为样本标签训练得到。
优选地,所述根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息,包括:
将所述识别文本数据输入预置的文本情绪识别模型,得到文本情绪识别模型输出的情绪信息,作为对象在输入所述语音数据时的第二情绪信息;
所述文本情绪识别模型为,以所述对象的语音训练数据对应的识别文本训练数据为训练样本,以标注的生成语音训练数据时对象的情绪信息为样本标签训练得到。
优选地,所述根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息,包括:
计算所述识别文本数据与预设的每一类型情绪特征的文本相似度;
根据所述文本相似度,结合各类型情绪特征确定对象在输入所述语音数据时的第二情绪信息。
优选地,所述根据所述文本相似度,结合各类型情绪特征确定对象在输入所述语音数据时的第二情绪信息,包括:
根据识别文本数据与每一类型情绪特征的文本相似度,确定每一类型情绪特征的得分;
将每一类型的情绪特征及对应的得分组合为,对象在输入所述语音数据时的第二情绪信息。
优选地,所述根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息,包括:
匹配所述识别文本数据与预设的情绪关键词集合,得到所述识别文本数据包含的目标情绪关键词;
参考预设的情绪关键词对每一类型情绪特征的表征能力得分,获取所述目标情绪关键词对每一类型情绪特征的表征能力得分;
根据所述目标情绪关键词对每一类型情绪特征的表征能力得分,汇总每一类型情绪特征的表征能力得分的总得分;
将每一类型情绪特征及对应的表征能力得分的总得分组合为,对象在输入所述语音数据时的第二情绪信息。
优选地,第一情绪信息和第二情绪信息各自包含每一类型的情绪特征及对应的得分;
所述将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息,包括:
将第一情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的语音表现权重进行加权,得到对应类型情绪特征的语音表现加权得分;
将第二情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的文本表现权重进行加权,得到对应类型情绪特征的文本表现加权得分;
将每一类型的情绪特征的语音表现加权得分与文本表现加权得分相加,得到对应类型情绪特征的综合加权得分;
将每一类型的情绪特征及对应的综合加权得分组合为,对象在输入所述语音数据时的情绪信息。
优选地,所述文本显示模式包括至少一个显示属性,所述确定与所述情绪信息匹配的文本显示模式,包括:
确定与所述情绪信息匹配的每一显示属性的属性值。
优选地,所述确定与所述情绪信息匹配的每一显示属性的属性值,包括:
以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值。
优选地,以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值,包括:
以所述情绪信息作为待匹配项,以系统默认和/或上一时刻显示文本的各显示属性的属性值作为匹配修正项,匹配得到当前时刻每一显示属性的属性值;
其中,所述匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述系统默认和/或上一时刻显示文本的各显示属性的属性值。
一种信息显示装置,包括:
数据获取单元,用于获取输入的语音数据及所述语音数据对应的识别文本数据;
情绪信息确定单元,用于根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息;
模式确定单元,用于确定与所述情绪信息匹配的文本显示模式;
文本显示单元,用于按照确定的所述文本显示模式,对所述识别文本数据进行显示。
优选地,所述情绪信息确定单元包括:
第一情绪信息确定单元,用于根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息;
第二情绪信息确定单元,用于根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息;
整合单元,用于将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息。
优选地,所述文本显示模式包括至少一个显示属性,所述模式确定单元包括:
显示属性值确定单元,用于确定与所述情绪信息匹配的每一显示属性的属性值。
优选地,所述显示属性值确定单元,包括:
匹配单元,用于以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值。
优选地,所述匹配单元,包括:
修正匹配单元,用于以所述情绪信息作为待匹配项,以系统默认和/或上一时刻显示文本的各显示属性的属性值作为匹配修正项,匹配得到当前时刻每一显示属性的属性值;
其中,所述匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述系统默认和/或上一时刻显示文本的各显示属性的属性值。
一种信息显示设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上所述的信息显示方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的信息显示方法的各个步骤。
从上述的技术方案可以看出,本申请实施例提供的信息显示方法,获取输入的语音数据及语音数据对应的识别文本数据,根据该语音数据及识别文本数据,确定对象在输入语音数据时的情绪信息,进一步确定与该情绪信息匹配的文本显示模式,按照确定的文本显示模式,对识别文本数据进行显示。由此可见,本申请能够根据输入的语音数据及对应的识别文本数据,确定对象在输入语音时的情绪信息,通过确定的情绪信息可以匹配对应的文本显示模式,进而能够控制识别文本数据按照匹配的文本显示模式进行显示,由于该显示的文本已经是按照用户情绪匹配的显示模式进行显示的,因此无需用户再次对显示的文本进行编辑操作,简化了操作步骤且提高了输入效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例公开的一种信息显示方法流程图;
图2为本申请实施例公开的一种信息显示装置结构示意图;
图3为本申请实施例公开的一种信息显示设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在介绍本申请方案之前,首先通过一个具体实例来引出现有技术的缺陷。
一个示例场景下:用户与好友通过即时通讯软件聊天,收到对方发来的一条信息,阅读后表示非常吃惊,想要向对方询问:“真的???”,并且为了表示自己当前很震惊,想要把字号调大,且加粗表示。按照现有技术,输入法输出上屏的“真的???”是按照系统默认设置显示,需要用户对上屏的文本进行二次编辑,包括调整字号、加粗等。
显然,按照现有输入法系统输出上屏的文本,需要用户根据自己的情感再次对文本进行编辑,以达到用户情感所想表达的文本显示模式。整个文本输入过程,由于需要用户对上屏的文本进行编辑操作,增加了操作步骤,且降低了输入效率。
为了解决上述现有技术的缺陷,本申请实施例提供了一种信息显示方案,接下来通过附图1对本申请的信息显示方法进行说明,如图1所示,该方法可以包括:
步骤S100、获取输入的语音数据及所述语音数据对应的识别文本数据。
具体地,对象可以使用语音形式进行输入。本步骤中获取到对象输入的语音数据,以及与该语音数据对应的识别文本数据。
其中,语音数据对应的识别文本数据,可以通过现有的语音识别技术,将语音数据识别为对应的识别文本数据。
步骤S110、根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息。
具体地,情绪信息可以包括多类情绪特征,如:愤怒、惊讶、喜悦、盼望、恐惧、悲伤、信任、厌恶等。对象的情绪信息可以影响其对识别文本数据显示时的显示模式。示例如,当用户愤怒时,其可能想要将识别文本以更大字号进行显示。而当用户悲伤时,需要体现一种低沉的效果,对应的识别文本以更小字号进行显示。当然,除此字号之外,显示模式还可以包括其他属性信息,如字体颜色、是否加下划线、是否加粗等等。
由于情绪信息的多样化,某些类型的情绪在文本数据中能够很好的体现,而在语音数据中体现的可能不够明显。而另外一些类型的情绪可能恰恰相反,即在语音数据中体现的很明显,而在文本数据中体现的不够明显。示例如,悲伤、喜悦这类的情绪信息,能够通过文本数据很好的体现。而愤怒、惊讶这类的情绪,无法通过文本数据很好的进行体现,但是能够通过语音数据很好的进行体现,如通过语音的音调、强度等特征体现。
因此,本步骤中综合考虑语音数据及对应的识别文本数据,确定对象在输入所述语音数据时的情绪信息。确定的该情绪信息更加全面,能够更真实的反映对象在输入语音数据时的情绪。
并且,用户在持续的信息输入过程中,每次输入语音数据时的情绪可能也会发生变化,因此,本步骤中根据语音数据及对应识别文本数据所确定的,也是对象在输入该语音数据时的情绪信息,该确定的情绪信息能够准确反映该语音数据输入时对象的情绪。
步骤S120、确定与所述情绪信息匹配的文本显示模式。
具体地,不同类型的情绪信息对应的文本显示时的显示模式也可能不同。本申请预先统计得到各类型的情绪信息匹配的文本显示模型。进而针对上一步骤确定的对象在输入语音数据时的情绪信息,查询与其匹配的文本显示模式。
步骤S130、按照确定的所述文本显示模式,对所述识别文本数据进行显示。
本申请实施例提供的信息显示方法,能够根据输入的语音数据及对应的识别文本数据,确定对象在输入语音时的情绪信息,通过确定的情绪信息可以匹配对应的文本显示模式,进而能够控制识别文本数据按照匹配的文本显示模式进行显示,由于该显示的文本已经是按照用户情绪匹配的显示模式进行显示的,因此无需用户再次对显示的文本进行编辑操作,简化了操作步骤且提高了输入效率。
在本申请的另一个实施例中,对上述步骤S110,根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息的过程进行介绍,该过程可以包括:
S1、根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息。
S2、根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息。
本实施例提供的方法中,针对语音数据和识别文本数据分别处理,即根据语音数据来确定对象输入语音数据时的第一情绪信息。以及,根据识别文本数据,确定对象输入语音数据时的第二情绪信息。
这里,第一情绪信息和第二情绪信息主要是为了便于区分。对于语言数据确定第一情绪信息,以及识别文本数据确定第二情绪信息的具体实现方式,下述实施例进行展开说明。
S3、将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息。
在前述分别确定了第一情绪信息及第二情绪信息之后,对二者进行整合,整合后得到的情绪信息作为对象在输入语音数据时的情绪信息。
除了上述实施方式之外,本申请还可以采用其它方式来实现。示例如,预先训练整体情绪识别模型,训练时将对象的语音训练数据及对应的识别文本训练数据作为训练样本,将对象在生成语音训练数据时的情绪信息作为样本标签。基于训练后的整体情绪识别模型,可以将获取到的输入的语音数据及对应的识别文本数据输入该模型,得到模型输出的对象在输入语音数据时的情绪信息。
接下来,分别对上述S1、S2的实现过程进行展开描述。
首先,介绍S1,根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息的过程。
一种可选的实施方式下,本申请可以预先训练语音情绪识别模型,该模型以所述对象的语音训练数据作为训练样本,以标注的生成语音训练数据时对象的情绪信息作为样本标签训练得到。
基于训练后的语音情绪识别模型,可以将语音数据输入语音情绪识别模型,得到语音情绪识别模型输出的情绪信息,作为对象在输入语音数据时的第一情绪信息。
除了上述实现方式之外,还可以采用其他方式,示例如:从语音数据中提取表达情绪的声学特征,并结合提取的声学特征匹配与之对应的情绪信息,作为对象在输入语音数据时的第一情绪信息。
这里,声学特征可以包括声调、响度、基频变化、重读等能够表达情绪的特征。
本申请可以预先定义多类情绪特征,如:愤怒、惊讶、喜悦、盼望、恐惧、悲伤、信任、厌恶等。
基于此,第一情绪信息的表现形式可以是:每一类型的情绪特征及对应的得分组合。其中,情绪特征的得分表明对应类型情绪特征对对象在输入语音数据时情绪的表达程度。
示例如,用户语音输入为:“今天天气很好,我们出去玩吧”
根据该语音数据,确定的第一情绪信息为:
[愤怒=0、惊讶=20、喜悦=70、盼望=20、恐惧=0、悲伤=0、信任=70、厌恶=0]。
进一步地,对S2,根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息的过程进行介绍。
一种可选的实施方式下,本申请可以预先训练文本情绪识别模型,该模型以所述对象的语音训练数据对应的识别文本训练数据为训练样本,以标注的生成语音训练数据时对象的情绪信息为样本标签训练得到。
基于训练后的文本情绪识别模型,可以将语音数据对应的识别文本数据输入语音情绪识别模型,得到语音情绪识别模型输出的情绪信息,作为对象在输入语音数据时的第二情绪信息。
另一种可选的实施方式下,本申请可以预先定义多类情绪特征,如:愤怒、惊讶、喜悦、盼望、恐惧、悲伤、信任、厌恶等。基于此,可以计算识别文本数据与预设的每一类情绪特征的文本相似度。并根据该文本相似度,结合各类情绪特征,确定对象在输入语音数据时的第二情绪信息。
其中,文本相似度表明了识别文本数据与情绪特征之间的语义间的相似程度,基于该文本相似度可以确定文本数据与哪一类情绪特征更加贴近。
在计算文本相似度时,可以对识别文本数据进行分词,并通过词向量模型确定分词的词向量,进而计算识别文本数据包含的每一分词与情绪特征对应分词的词向量间的距离,对每一分词的距离求平均值,作为识别文本数据与情绪特征间的相似度。
可选的,可以将上述文本相似度最高的一个或若干个情绪特征作为第二情绪信息。
另外一种可选的情况,可以根据识别文本数据与每一类型情绪特征的文本相似度,确定每一类型情绪特征的得分,该得分表明对应类型情绪特征对对象在输入语音数据时情绪的表达程度。示例如,用户语音输入:“真的可以成功吗!”这句话表明了用户此时的惊讶,但是更多的是一种喜悦,也即,相比于惊讶,喜悦更加能够表征用户当前的情绪,如果通过得分的形式来说明,“惊讶”得分可以是10分,而“喜悦”得分可以是90分。
基于上述确定的每一类型情绪特征的得分,可以将每一类型的情绪特征及对应的得分组合为,对象在输入语音数据时的第二情绪信息。
为了便于理解,通过一个具体实例进行说明。
预先定义8类情绪特征,包括:愤怒、惊讶、喜悦、盼望、恐惧、悲伤、信任、厌恶。
用户语音输入对应的识别文本为:“今天天气很好,我们出去玩吧”
分别计算上述识别文本与每一类情绪特征的文本相似度,并基于文本相似度确定每一类情绪特征的得分,结果如下表1所示:
表1
上表1中,将文本相似度转换为情绪特征的得分,如“惊讶”的文本相似度为10%,转换后的得分为10。
对于某些类型的情绪特征,其文本相似度可能为0,则对应的转换后的得分也是0。
进一步地,可以将每一类型的情绪特征及对应的得分组合为,对象在输入语音数据时的第二情绪信息:
[愤怒=0、惊讶=10、喜悦=60、盼望=40、恐惧=0、悲伤=5、信任=60、厌恶=0]。
再一种可选的实施方式下,本申请实施例可以预先生成情绪关键词集合,该情绪关键词集合中包含若干情绪关键词。具体地,情绪关键词能够表征情绪特征,且同一情绪关键词可以表征一个或多个不同类型的情绪特征,对不同情绪特征的表征能力也可能不同。进一步,不同情绪关键词可以表征相同类型的情绪特征,也可以表征不同类型的情绪特征。
本实施例在预先生成情绪关键词的基础上,进一步预先给定了情绪关键词对每一类型情绪特征的表征能力得分,该表征能力得分表明了对每一类型情绪特征的表征能力。
举例说明如下:
情绪关键词集合可以包括:开心、中奖、呵呵,难受等。以“开心”为例,其对每一类型情绪特征的表征能力得分为:
[愤怒=0、惊讶=0、喜悦=30、盼望=5、恐惧=0、悲伤=0、信任=0、厌恶=0]。
再以“中奖”为例,其对每一类型情绪特征的表征能力得分为:
[愤怒=0、惊讶=20、喜悦=40、盼望=0、恐惧=0、悲伤=0、信任=0、厌恶=0]。
基于情绪关键词集合,确定第二情绪信息的过程可以包括:
1)、匹配所述识别文本数据与预设的情绪关键词集合,得到所述识别文本数据包含的目标情绪关键词。
具体地,通过对识别文本书数据与情绪关键词集合进行匹配,得到识别文本数据所包含的情绪关键词集合中的目标情绪关键词。
2)、参考预设的情绪关键词对每一类型情绪特征的表征能力得分,获取所述目标情绪关键词对每一类型情绪特征的表征能力得分。
3)、根据所述目标情绪关键词对每一类型情绪特征的表征能力得分,汇总每一类型情绪特征的表征能力得分的总得分。
具体地,目标情绪关键词可以是一个或多个,每一目标情绪关键词对每一类型情绪特征都存在表征能力得分,汇总各目标情绪关键词的表征能力得分,可以得到每一类型情绪特征的表征能力得分的总得分。
4)、将每一类型情绪特征及对应的表征能力得分的总得分组合为,对象在输入所述语音数据时的第二情绪信息。
举例说明如下:
识别文本数据为:“没想到今天中奖了竟然,真开心啊”
将其与情绪关键词集合匹配,得到匹配的目标情绪关键词:“中奖”和“开心”。
按照前述示例的“中奖”和“开心”这两个情绪关键词对每一类型情绪特征的表征能力得分,汇总可以得到每一类型情绪特征的表征能力得分的总得分:
[愤怒=0+0=0、惊讶=0+20=20、喜悦=30+40=70、盼望=5+0=5、恐惧=0+0=0、悲伤=0+0=0、信任=0+0=0、厌恶=0+0=0]。
最终得到的第二情绪信息为:
[愤怒=0、惊讶=20、喜悦=70、盼望=5、恐惧=0、悲伤=0、信任=0、厌恶=0]。
在本申请的又一个实施例中,对上述S3,将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息的过程进行说明。
根据上述对S1、S2步骤的介绍可知,第一情绪信息和第二情绪信息各自可以包含每一类型的情绪特征及对应的得分。
基于此,整合过程可以包括:
1)将第一情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的语音表现权重进行加权,得到对应类型情绪特征的语音表现加权得分。
由于不同类型的情绪特征,通过语音表现的程度不一定相同,因此可以为每一类型的情绪特征设置对应的语音表现权重,并将其得分乘以对应的语音表现权重,得到情绪特征的语音表现权重得分。
示例如,用户语音输入为:“今天天气很好,我们出去玩吧”
根据该语音数据,确定的第一情绪信息为:
[愤怒=0、惊讶=20、喜悦=70、盼望=20、恐惧=0、悲伤=0、信任=70、厌恶=0]。
以“愤怒”为例,相比于文本,其更加能够通过语音得到很好的表现,因此可以设置“愤怒”的语音表现权重高于文本表现权重,如语音表现权重为0.8,文本表现权重为0.2。
再以“盼望”为例,相比于语音,其更加能够通过文本得到很好的表现,因此可以设置“盼望”的文本表现权重高于语音表现权重,如文本表现权重为0.9,文本表现权重为0.1。
同理,针对其他类型的情绪特征。
本步骤中,对于每一类型情绪特征,将其得分按照对应的语音表现权重相乘,得到语音表现加权得分。如以“盼望”为例,语音表现加权得分=0.8*20=16。
2)将第二情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的文本表现权重进行加权,得到对应类型情绪特征的文本表现加权得分。
本步骤中,对于每一类型情绪特征,将其得分按照对应的文本表现权重相乘,得到文本表现加权得分。
示例如,用户语音对应的识别文本为:“今天天气很好,我们出去玩吧”
根据该识别文本,确定的第二情绪信息为:
[愤怒=0、惊讶=10、喜悦=60、盼望=40、恐惧=0、悲伤=5、信任=60、厌恶=0]。
仍以“盼望”为例,文本表现加权得分=0.2*40=8。
3)将每一类型的情绪特征的语音表现加权得分与文本表现加权得分相加,得到对应类型情绪特征的综合加权得分。
具体地,对于情绪特征X1,根据其语音表现加权得分S1和文本表现加权得分S2,相加得到其综合加权得分S=S1+S2。
以上述“盼望”为例,综合加权得分S=16+8=24。
4)将每一类型的情绪特征及对应的综合加权得分组合为,对象在输入所述语音数据时的情绪信息。
示例如:
第一情绪信息为:
[愤怒=0、惊讶=20、喜悦=70、盼望=20、恐惧=0、悲伤=0、信任=70、厌恶=0]。
第二情绪信息为:
[愤怒=0、惊讶=10、喜悦=60、盼望=40、恐惧=0、悲伤=5、信任=60、厌恶=0]。
各情绪特征的语音表现权重及文本表现权重参照下表2所示:
情绪特征 语音表现权重 文本表现权重
愤怒 0.8 0.2
惊讶 0.7 0.3
喜悦 0.5 0.5
盼望 0.1 0.9
恐惧 0.6 0.4
悲伤 0.4 0.6
信任 0.1 0.9
厌恶 0.6 0.4
表2
基于此,各类型情绪特征按照表2示例的权重加权得到综合加权得分如下:
[愤怒=0、惊讶=20*0.7+10*0.3、喜悦=70*0.5+60*0.5、盼望=20*0.1+40*0.9、恐惧=0、悲伤=0+5*0.6、信任=70*0.1+60*0.9、厌恶=0]
每一类型的情绪特征及对应的综合加权得分组合为对象在输入所述语音数据时的情绪信息:
[愤怒=0、惊讶=17、喜悦=65、盼望=38、恐惧=0、悲伤=3、信任=61、厌恶=0]。
进一步可选的,本申请实施例对于确定的情绪信息中,如果某一类型的情绪特征的综合加权得分小于设定阈值,则可以认为该情绪特征不具有表现价值,因此可以将其综合加权得分置为0。
假设阈值为10,则针对上述示例的情绪信息,其中“悲伤”的得分3小于10,因此将其得分置为0,最终得到的情绪信息如下:
[愤怒=0、惊讶=17、喜悦=65、盼望=38、恐惧=0、悲伤=0、信任=61、厌恶=0]。
在本申请的又一个实施例中,对上述步骤S120,确定与所述情绪信息匹配的文本显示模式的过程进行介绍。
其中,文本显示模式可以包括至少一个显示属性,如字体大小可以作为一个显示属性、字体颜色可以作为另一个显示属性,除此之外,字体显示特效的类型、显示背景的类型(包括背景亮度、颜色等)、字体显示场景的类型等,均可以作为显示属性。
则确定与所述情绪信息匹配的文本显示模式的过程,可以看作:
确定与所述情绪信息匹配的每一显示属性的属性值。
具体地,在确定与情绪信息匹配的每一显示属性的属性值的过程中,可以以所述情绪信息作为待匹配项,确定匹配的每一显示属性的属性值。
对于情绪信息,可以将其量化为数学表达形式,并按照预先建立的情绪信息量化值与每一显示属性的属性值间的对应关系,来确定待匹配项所匹配的每一显示属性的属性值。
以前述介绍的情绪信息包含每一类型的情绪特征及对应的得分为例,对情绪信息进行量化时,可以按照下述公式进行量化:
M=C1*Z1+C2*Z2+...+Ci*Zi+...+Cn*Zn
其中,M为量化后的情绪信息,Ci表示第i个情绪特征的权重系数,Zi表示第i个情绪特征的得分,n表示情绪信息所包含的情绪特征的数量。
可选的,为了避免得分较低的情绪特征对最终量化结果的影响,在对情绪信息进行量化时,可以仅取情绪特征得分排名前N的情绪特征,并对选取的情绪特征按照上式进行量化。
此外,考虑到为了避免用户每次输入上屏的文本显示模式不至于过于突兀,如上一条上屏文本的字体为1号,下一条上屏文本的字体变成100号;或者,系统默认字体大小为5号,当前时刻上屏文本的字体变成100号,导致字体大小差异过大影响观感,本实施例在确定与情绪信息匹配的每一显示属性的属性值时,可以在以所述情绪信息作为待匹配项的基础上,增加匹配修正项,匹配得到当前时刻每一显示属性的属性值。
其中,匹配修正项可以包括:系统默认的各显示属性的属性值、上一时刻显示文本的各显示属性的属性值中的任意一个或多个。
当匹配修正项包括系统默认的各显示属性的属性值时,匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于系统默认的各显示属性的属性值。
当匹配修正项包括上一时刻显示文本的各显示属性的属性值时,匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述上一显示文本的各显示属性的属性值。
以字体大小为例,说明确定当前时刻字体大小的过程,具体可以参照下述公式:
F=f1(M、F1、F2),F1是系统默认字体大小,F2是上一时刻显示文本的字体大小。
其中,f1()函数的形式并不限定,示例如下:
进一步,以背景亮度为例,说明确定当前时刻背景亮度的过程,具体可以参照下述公式:
B=f2(M、B1、B2、T),B1是系统默认背景亮度,B2是上一时刻显示背景亮度,T是系统时间。
其中,f2()函数的形式并不限定,示例如下:
上式中T按照24小时制设置,引入系统时间作为修订参数,在不同的时间,环境亮度不同,因此需要结合考虑。当系统时间越接近正午时,亮度会越高,反之,则越低。
下面对本申请实施例提供的信息显示装置进行描述,下文描述的信息显示装置与上文描述的信息显示方法可相互对应参照。
参见图2,图2为本申请实施例公开的一种信息显示装置结构示意图。
如图2所示,该装置可以包括:
数据获取单元11,用于获取输入的语音数据及所述语音数据对应的识别文本数据;
情绪信息确定单元12,用于根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息;
模式确定单元13,用于确定与所述情绪信息匹配的文本显示模式;
文本显示单元14,用于按照确定的所述文本显示模式,对所述识别文本数据进行显示。
可选的,所述情绪信息确定单元可以包括:
第一情绪信息确定单元,用于根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息;
第二情绪信息确定单元,用于根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息;
整合单元,用于将所述第一情绪信息及所述第二情绪信息进行整合,得到整合后的对象在输入所述语音数据时的情绪信息。
可选的,所述第一情绪信息确定单元可以包括:
语音情绪识别模型预测单元,用于将所述语音数据输入预置的语音情绪识别模型,得到语义情绪识别模型输出的情绪信息,作为对象在输入所述语音数据时的第一情绪信息;
所述语音情绪识别模型为,以所述对象的语音训练数据为训练样本,以标注的生成语音训练数据时对象的情绪信息为样本标签训练得到。
可选的,本申请实施例还公开了几种第二情绪信息确定单元的结构,如下:
一种可选的情况,所述第二情绪信息确定单元可以包括:
文本情绪识别模型预测单元,用于将所述识别文本数据输入预置的文本情绪识别模型,得到文本情绪识别模型输出的情绪信息,作为对象在输入所述语音数据时的第二情绪信息;
所述文本情绪识别模型为,以所述对象的语音训练数据对应的识别文本训练数据为训练样本,以标注的生成语音训练数据时对象的情绪信息为样本标签训练得到。
另一种可选的情况,所述第二情绪信息确定单元可以包括:
文本相似度计算单元,用于计算所述识别文本数据与预设的每一类型情绪特征的文本相似度;
文本相似度使用单元,用于根据所述文本相似度,结合各类型情绪特征确定对象在输入所述语音数据时的第二情绪信息。
可选的,所述文本相似度使用单元可以包括:
得分确定单元,用于根据识别文本数据与每一类型情绪特征的文本相似度,确定每一类型情绪特征的得分;
特征及得分组合单元,用于将每一类型的情绪特征及对应的得分组合为,对象在输入所述语音数据时的第二情绪信息。
再一种可选的情况,所述第二情绪信息确定单元可以包括:
关键词确定单元,用于匹配所述识别文本数据与预设的情绪关键词集合,得到所述识别文本数据包含的目标情绪关键词;
表征能力得分确定单元,用于参考预设的情绪关键词对每一类型情绪特征的表征能力得分,获取所述目标情绪关键词对每一类型情绪特征的表征能力得分;
表征能力得分汇总单元,用于根据所述目标情绪关键词对每一类型情绪特征的表征能力得分,汇总每一类型情绪特征的表征能力得分的总得分;
特征及表征能力得分组合单元,用于将每一类型情绪特征及对应的表征能力得分的总得分组合为,对象在输入所述语音数据时的第二情绪信息。
可选的,第一情绪信息和第二情绪信息各自可以包含每一类型的情绪特征及对应的得分,基于此,上述整合单元可以包括:
第一加权单元,用于将第一情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的语音表现权重进行加权,得到对应类型情绪特征的语音表现加权得分;
第二加权单元,用于将第二情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的文本表现权重进行加权,得到对应类型情绪特征的文本表现加权得分;
加权相加单元,用于将每一类型的情绪特征的语音表现加权得分与文本表现加权得分相加,得到对应类型情绪特征的综合加权得分;
特征及加权得分组合单元,用于将每一类型的情绪特征及对应的综合加权得分组合为,对象在输入所述语音数据时的情绪信息。
可选的,所述文本显示模式可以包括至少一个显示属性,基于此,模式确定单元可以包括:
显示属性值确定单元,用于确定与所述情绪信息匹配的每一显示属性的属性值。
可选的,所述显示属性值确定单元可以包括:
匹配单元,用于以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值。
可选的,所述匹配单元可以包括:
修正匹配单元,用于以所述情绪信息作为待匹配项,以系统默认和/或上一时刻显示文本的各显示属性的属性值作为匹配修正项,匹配得到当前时刻每一显示属性的属性值;
其中,所述匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述系统默认和/或上一时刻显示文本的各显示属性的属性值。
本申请实施例提供的信息显示装置可应用于信息显示设备,如移动终端、PC终端、云平台、服务器及服务器集群等。可选的,图3示出了信息显示设备的硬件结构框图,参照图3,信息显示设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取输入的语音数据及所述语音数据对应的识别文本数据;
根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息;
确定与所述情绪信息匹配的文本显示模式;
按照确定的所述文本显示模式,对所述识别文本数据进行显示。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取输入的语音数据及所述语音数据对应的识别文本数据;
根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息;
确定与所述情绪信息匹配的文本显示模式;
按照确定的所述文本显示模式,对所述识别文本数据进行显示。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (11)

1.一种信息显示方法,其特征在于,包括:
获取输入的语音数据及所述语音数据对应的识别文本数据;
根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息,所述情绪信息基于所述语音数据及所述识别文本数据体现;
确定与所述情绪信息匹配的文本显示模式;
按照确定的所述文本显示模式,对所述识别文本数据进行显示;
所述根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息,包括:
根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息;
根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息;所述第一情绪信息和所述第二情绪信息各自包含每一类型的情绪特征及对应的得分;
将第一情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的语音表现权重进行加权,得到对应类型情绪特征的语音表现加权得分;
将第二情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的文本表现权重进行加权,得到对应类型情绪特征的文本表现加权得分;
将每一类型的情绪特征的语音表现加权得分与文本表现加权得分相加,得到对应类型情绪特征的综合加权得分;
将每一类型的情绪特征及对应的综合加权得分组合为,对象在输入所述语音数据时的情绪信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息,包括:
匹配所述识别文本数据与预设的情绪关键词集合,得到所述识别文本数据包含的目标情绪关键词;
参考预设的情绪关键词对每一类型情绪特征的表征能力得分,获取所述目标情绪关键词对每一类型情绪特征的表征能力得分;
根据所述目标情绪关键词对每一类型情绪特征的表征能力得分,汇总每一类型情绪特征的表征能力得分的总得分;
将每一类型情绪特征及对应的表征能力得分的总得分组合为,对象在输入所述语音数据时的第二情绪信息。
3.根据权利要求1所述的方法,其特征在于,所述文本显示模式包括至少一个显示属性,所述确定与所述情绪信息匹配的文本显示模式,包括:
确定与所述情绪信息匹配的每一显示属性的属性值。
4.根据权利要求3所述的方法,其特征在于,所述确定与所述情绪信息匹配的每一显示属性的属性值,包括:
以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值。
5.根据权利要求4所述的方法,其特征在于,所述以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值,包括:
以所述情绪信息作为待匹配项,以系统默认和/或上一时刻显示文本的各显示属性的属性值作为匹配修正项,匹配得到当前时刻每一显示属性的属性值;
其中,所述匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述系统默认和/或上一时刻显示文本的各显示属性的属性值。
6.一种信息显示装置,其特征在于,包括:
数据获取单元,用于获取输入的语音数据及所述语音数据对应的识别文本数据;
情绪信息确定单元,用于根据所述语音数据及所述识别文本数据,确定对象在输入所述语音数据时的情绪信息,所述情绪信息基于所述语音数据及所述识别文本数据体现;
模式确定单元,用于确定与所述情绪信息匹配的文本显示模式;
文本显示单元,用于按照确定的所述文本显示模式,对所述识别文本数据进行显示;
所述情绪信息确定单元包括:
第一情绪信息确定单元,用于根据所述语音数据,确定对象在输入所述语音数据时的第一情绪信息;
第二情绪信息确定单元,用于根据所述识别文本数据,确定对象在输入所述语音数据时的第二情绪信息;所述第一情绪信息和所述第二情绪信息各自包含每一类型的情绪特征及对应的得分;
整合单元,用于将第一情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的语音表现权重进行加权,得到对应类型情绪特征的语音表现加权得分;
将第二情绪信息包含的每一类型的情绪特征的得分,按照对应类型的情绪特征的文本表现权重进行加权,得到对应类型情绪特征的文本表现加权得分;
将每一类型的情绪特征的语音表现加权得分与文本表现加权得分相加,得到对应类型情绪特征的综合加权得分;
将每一类型的情绪特征及对应的综合加权得分组合为,对象在输入所述语音数据时的情绪信息。
7.根据权利要求6所述的装置,其特征在于,所述文本显示模式包括至少一个显示属性,所述模式确定单元包括:
显示属性值确定单元,用于确定与所述情绪信息匹配的每一显示属性的属性值。
8.根据权利要求7所述的装置,其特征在于,所述显示属性值确定单元,包括:
匹配单元,用于以所述情绪信息作为待匹配项,确定与所述待匹配项匹配的每一显示属性的属性值。
9.根据权利要求8所述的装置,其特征在于,所述匹配单元包括:
修正匹配单元,用于以所述情绪信息作为待匹配项,以系统默认和/或上一时刻显示文本的各显示属性的属性值作为匹配修正项,匹配得到当前时刻每一显示属性的属性值;
其中,所述匹配修正项用于保证所述当前时刻每一显示属性的属性值趋近于所述系统默认和/或上一时刻显示文本的各显示属性的属性值。
10.一种信息显示设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1-5中任一项所述的信息显示方法的各个步骤。
11.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-5中任一项所述的信息显示方法的各个步骤。
CN201810777950.3A 2018-07-16 2018-07-16 一种信息显示方法、装置、设备及可读存储介质 Active CN110728983B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810777950.3A CN110728983B (zh) 2018-07-16 2018-07-16 一种信息显示方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810777950.3A CN110728983B (zh) 2018-07-16 2018-07-16 一种信息显示方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN110728983A CN110728983A (zh) 2020-01-24
CN110728983B true CN110728983B (zh) 2024-04-30

Family

ID=69217335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810777950.3A Active CN110728983B (zh) 2018-07-16 2018-07-16 一种信息显示方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN110728983B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113409790A (zh) * 2020-03-17 2021-09-17 Oppo广东移动通信有限公司 语音转换方法、装置、终端及存储介质
CN111523289B (zh) * 2020-04-24 2023-05-09 支付宝(杭州)信息技术有限公司 一种文本格式生成方法、装置、设备和可读介质
CN112148900A (zh) * 2020-09-14 2020-12-29 联想(北京)有限公司 一种多媒体文件的显示方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075894A (ja) * 1998-09-01 2000-03-14 Ntt Data Corp 音声認識方法及び装置、音声対話システム、記録媒体
CN103369477A (zh) * 2013-07-02 2013-10-23 华为技术有限公司 显示媒体信息方法、装置、客户端,图形控件显示方法和装置
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统
CN105427858A (zh) * 2015-11-06 2016-03-23 科大讯飞股份有限公司 实现语音自动分类的方法及系统
CN106658129A (zh) * 2016-12-27 2017-05-10 上海智臻智能网络科技股份有限公司 基于情绪的终端控制方法、装置及终端
CN106874239A (zh) * 2015-12-14 2017-06-20 中兴通讯股份有限公司 一种展示阅读文本的方法及装置
CN106919673A (zh) * 2017-02-21 2017-07-04 浙江工商大学 基于深度学习的文本情绪分析系统
CN107945790A (zh) * 2018-01-03 2018-04-20 京东方科技集团股份有限公司 一种情感识别方法和情感识别系统
CN108093148A (zh) * 2016-11-21 2018-05-29 广东亿迅科技有限公司 一种基于客服情绪的外呼后处理时长控制方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7283962B2 (en) * 2002-03-21 2007-10-16 United States Of America As Represented By The Secretary Of The Army Methods and systems for detecting, measuring, and monitoring stress in speech
US9800721B2 (en) * 2010-09-07 2017-10-24 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US10431215B2 (en) * 2015-12-06 2019-10-01 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
US9899038B2 (en) * 2016-06-30 2018-02-20 Karen Elaine Khaleghi Electronic notebook system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075894A (ja) * 1998-09-01 2000-03-14 Ntt Data Corp 音声認識方法及び装置、音声対話システム、記録媒体
CN103369477A (zh) * 2013-07-02 2013-10-23 华为技术有限公司 显示媒体信息方法、装置、客户端,图形控件显示方法和装置
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN105427858A (zh) * 2015-11-06 2016-03-23 科大讯飞股份有限公司 实现语音自动分类的方法及系统
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统
CN106874239A (zh) * 2015-12-14 2017-06-20 中兴通讯股份有限公司 一种展示阅读文本的方法及装置
CN108093148A (zh) * 2016-11-21 2018-05-29 广东亿迅科技有限公司 一种基于客服情绪的外呼后处理时长控制方法及系统
CN106658129A (zh) * 2016-12-27 2017-05-10 上海智臻智能网络科技股份有限公司 基于情绪的终端控制方法、装置及终端
CN106919673A (zh) * 2017-02-21 2017-07-04 浙江工商大学 基于深度学习的文本情绪分析系统
CN107945790A (zh) * 2018-01-03 2018-04-20 京东方科技集团股份有限公司 一种情感识别方法和情感识别系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向情绪分类的情绪词向量学习;杜漫;徐学可;杜慧;伍大勇;刘悦;程学旗;;山东大学学报(理学版);20171231(第07期);全文 *

Also Published As

Publication number Publication date
CN110728983A (zh) 2020-01-24

Similar Documents

Publication Publication Date Title
CN108305643B (zh) 情感信息的确定方法和装置
CN104836720B (zh) 交互式通信中进行信息推荐的方法及装置
CN114578969B (zh) 用于人机交互的方法、装置、设备和介质
WO2016197767A2 (zh) 一种表情输入方法、装置、终端和计算机可读存储介质
CN104598644B (zh) 喜好标签挖掘方法和装置
CN110728983B (zh) 一种信息显示方法、装置、设备及可读存储介质
CN110019742B (zh) 用于处理信息的方法和装置
JP6884947B2 (ja) 対話システム及びそのためのコンピュータプログラム
US20130211838A1 (en) Apparatus and method for emotional voice synthesis
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
CN109582869B (zh) 一种数据处理方法、装置和用于数据处理的装置
CN113160819B (zh) 用于输出动画的方法、装置、设备、介质和产品
KR20210091076A (ko) 비디오를 처리하기 위한 방법, 장치, 전자기기, 매체 및 컴퓨터 프로그램
CN110493612B (zh) 弹幕信息的处理方法、服务器及计算机可读存储介质
CN111832308A (zh) 语音识别文本连贯性处理方法和装置
CN111767740A (zh) 音效添加方法和装置、存储介质和电子设备
CN111639162A (zh) 信息交互方法和装置、电子设备和存储介质
CN115171644A (zh) 语音合成方法、装置、电子设备和存储介质
CN110930969A (zh) 背景音乐的确定方法及相关设备
CN112910761B (zh) 即时通讯方法、装置、设备、存储介质以及程序产品
CN113850083A (zh) 确定播报风格的方法、装置、设备和计算机存储介质
CN110781329A (zh) 图像搜索方法、装置、终端设备及存储介质
CN116738250A (zh) 提示文本扩展方法、装置、电子设备和存储介质
JP6205039B1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN113539234B (zh) 语音合成方法、装置、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant