CN113743126B - 一种基于用户情绪的智能交互方法和装置 - Google Patents

一种基于用户情绪的智能交互方法和装置 Download PDF

Info

Publication number
CN113743126B
CN113743126B CN202111310673.3A CN202111310673A CN113743126B CN 113743126 B CN113743126 B CN 113743126B CN 202111310673 A CN202111310673 A CN 202111310673A CN 113743126 B CN113743126 B CN 113743126B
Authority
CN
China
Prior art keywords
emotion
entity
type
data
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111310673.3A
Other languages
English (en)
Other versions
CN113743126A (zh
Inventor
李响
高峰
杜正平
刘沛丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Borui Tongyun Technology Co ltd
Original Assignee
Beijing Borui Tongyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Borui Tongyun Technology Co ltd filed Critical Beijing Borui Tongyun Technology Co ltd
Priority to CN202111310673.3A priority Critical patent/CN113743126B/zh
Publication of CN113743126A publication Critical patent/CN113743126A/zh
Application granted granted Critical
Publication of CN113743126B publication Critical patent/CN113743126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例涉及一种基于用户情绪的智能交互方法和装置,所述方法包括:获取第一输入信息;若为语音类型则对第一输入信息进行语音情绪识别生成第一情绪类型;并对第一输入信息进行语音‑文本转换生成第一文本数据;若为文本类型则将第一输入信息作为第一文本数据;对第一文本数据进行主语实体特征提取生成第一实体数据组;对第一文本数据进行对应的情绪识别生成第二情绪类型;生成当前用户情绪类型;若第一实体类型数据为未知实体类型,则根据当前用户情绪类型执行启发式或安抚式应答;若不为未知实体类型,则抽取与当前用户情绪类型匹配的第一实体内容记录向用户进行推送。本发明解决了无视用户情绪变化进行盲推导致的用户体验度下降的问题。

Description

一种基于用户情绪的智能交互方法和装置
技术领域
本发明涉及自然语言处理技术领域,特别涉及一种基于用户情绪的智能交互方法和装置。
背景技术
随着人工智能技术的兴起与发展,常规的信息展示平台与社交平台为提高用户体验,已经开始在平台上增加具有智能应答与智能推送功能的聊天机器人角色了。然而我们在实际应用中发现,当前这些虚拟的聊天机器人在处理内容推送时其推送的内容都是基于预先设定的问题-答案对应关系进行固化推送,其间并未对用户的情绪变化进行识别。这样忽略用户情绪的内容推送方式,容易在用户情绪波动尤其是处于负面情绪的状态下,引发用户体验度下降甚至会带来投诉。
发明内容
本发明的目的,就是针对现有技术的缺陷,提供一种基于用户情绪的智能交互方法、装置、电子设备及计算机可读存储介质,对用户的输入信息(文本、语音)进行情绪识别,并根据情绪识别结果来选择对应的应答方式和应答内容。如此一来,就可以解决无视用户情绪变化进行盲推导致的用户体验度下降的问题,同时也可以降低用户投诉率、提高用户的使用体验、提高推送内容的准确度。
为实现上述目的,本发明实施例第一方面提供了一种基于用户情绪的智能交互方法,所述方法包括:
获取用户的第一输入信息;
若所述第一输入信息的信息类型为语音类型,则对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对所述第一输入信息进行语音-文本转换处理,生成第一文本数据;
若所述第一输入信息的信息类型为文本类型,则将所述第一输入信息作为所述第一文本数据;
根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组;所述第一实体数据组包括第一实体文本数据和第一实体类型数据;
根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型;
若所述第一情绪类型不为空且所述第二情绪类型为中性情绪类型,则将所述第一情绪类型作为当前用户情绪类型;若所述第一情绪类型为空或所述第二情绪类型不为中性情绪类型,则将所述第二情绪类型作为所述当前用户情绪类型;
若所述第一实体类型数据为未知实体类型,则根据所述当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理;
若所述第一实体类型数据不为未知实体类型,则根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送。
优选的,所述第一情绪类型和所述第二情绪类型均至少包括负面情绪类型、中性情绪类型和正面情绪类型;
所述实体词典包括多个实体词语数据元;所述实体词语数据元至少包括实体词语文本数据、实体词语词性标签和实体词语类型标签;所述实体词语类型标签至少包括人名实体类型、地名实体类型、产品/服务实体类型、知识实体类型和未知实体类型;
所述第一实体内容数据库包括多个所述第一实体内容记录;所述第一实体内容记录至少包括第一类型字段、第一名称字段、第一内容字段、第一评分字段和第一更新时间字段。
优选的,所述对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型,具体包括:
对所述第一输入信息按预设采样频率进行语音信号采样处理,生成第一语音数据序列;
对所述第一语音数据序列进行声谱图转换处理,生成第一声谱图矩阵;所述第一声谱图矩阵的横坐标为时间,纵坐标为频率,坐标点值为振幅;
将所述第一声谱图矩阵输入训练成熟的语音情绪识别模型进行运算,生成多个第一输出情绪类型和对应的第一输出类型概率;所述语音情绪识别模型至少包括基于卷积循环神经网络CRNN的语音情绪识别模型;
将概率值最大的所述第一输出类型概率对应的所述第一输出情绪类型,作为所述第一情绪类型。
优选的,所述对所述第一输入信息进行语音-文本转换处理,生成第一文本数据,具体包括:
对所述第一输入信息按预设采样频率进行语音信号采样处理,生成第二语音数据序列;
对所述第二语音数据序列进行分帧处理,生成第一语音帧数据序列;
将所述第一语音帧数据序列输入训练成熟的端到端语音-文本转换模型进行运算,生成所述第一文本数据;所述端到端语音-文本转换模型至少包括基于连接时序分类CTC方法的端到端语音-文本转换模型、基于注意力机制的端到端语音-文本转换模型和基于循环神经网络变换器RNN-T方法的端到端语音-文本转换模型。
优选的,所述根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组,具体包括:
将所述第一文本数据输入训练成熟的中文分词和词性标注模型进行运算,生成第一分词数据组序列;所述第一分词数据组序列包括多个第一分词数据组;所述第一分词数据组包括第一分词文本数据和第一分词词性数据;
按预设的主语实体分析逻辑,对所述第一分词数据组序列的所述第一分词文本数据进行主语实体识别处理,并将识别为主语的所述第一分词文本数据对应的所述第一分词数据组作为主语分词数据组;
将所述主语分词数据组的所述第一分词文本数据作为所述第一实体文本数据;并将所述主语分词数据组的所述第一分词词性数据作为第一实体词性数据;
查询所述实体词典,将所述实体词语文本数据与所述第一实体文本数据匹配的,且所述实体词语词性标签与所述第一实体词性数据匹配的所述实体词语数据元,作为主语实体词语数据元;并将所述主语实体词语数据元的所述实体词语类型标签,作为所述第一实体类型数据;
由所述第一实体文本数据和所述第一实体类型数据,组成所述第一实体数据组。
优选的,所述根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型,具体包括:
若所述第一实体类型数据为未知实体类型,则对所述第一文本数据进行最大权重情绪词的情绪类型识别处理,生成第二情绪类型;
若所述第一实体类型数据不为未知实体类型,则使用训练成熟的文本情绪识别模型对所述第一文本数据进行情绪识别处理,生成所述第二情绪类型。
进一步的,所述对所述第一文本数据进行最大权重情绪词的情绪类型识别处理,生成第二情绪类型,具体包括:
对所述第一文本数据进行情绪词识别处理,生成对应的第一情绪词数据序列;所述第一情绪词数据序列包括多个第一情绪词数据;
查询预设的情绪权重列表,将第一情绪词文本字段与各个所述第一情绪词数据匹配的情绪权重记录,标记为第一匹配情绪权重记录;所述情绪权重列表包括多个所述情绪权重记录;所述情绪权重记录包括所述第一情绪词文本字段和第一情绪词权重字段;
在得到的多个所述第一匹配情绪权重记录中,提取所述第一情绪词权重字段的绝对值为最大值的所述第一匹配情绪权重记录的所述第一情绪词文本字段作为最大权重情绪词数据;
查询预设的情绪类型列表,将第二情绪词文本字段与所述最大权重情绪词数据匹配的情绪类型记录的第一情绪类型字段作为所述第二情绪类型;所述情绪类型列表包括多个所述情绪类型记录;所述情绪类型记录包括所述第二情绪词文本字段和所述第一情绪类型字段。
进一步的,所述使用训练成熟的文本情绪识别模型对所述第一文本数据进行情绪识别处理,生成所述第二情绪类型,具体包括:
所述文本情绪识别模型根据预设的情绪表达词典以及情绪表达组合规则,对所述第一文本数据进行与所述第一实体文本数据对应的情绪表达数据的标记处理,得到多个第一情绪表达数据;所述第一情绪表达数据为所述第一文本数据中的情绪词或情绪短语;
查询预设的情绪表达评分列表,将第一情绪表达文本字段与各个所述第一情绪表达数据匹配的情绪表达评分记录的第一情绪表达评分字段,作为对应的第一情绪表达评分数据;所述情绪表达评分列表包括多个所述情绪表达评分记录;所述情绪表达评分记录包括所述第一情绪表达文本字段和所述第一情绪表达评分字段;
计算所述第一文本数据中,各个所述第一情绪表达数据与所述第一实体文本数据的词距,生成对应的第一实体-情绪词距数据;
对每个所述第一情绪表达数据,根据对应的所述第一情绪表达评分数据和所述第一实体-情绪词距数据,计算对应的第一实体-情绪权重数据,第一实体-情绪权重数据=第一情绪表达评分数据/第一实体-情绪词距数据;
对得到的所有所述第一实体-情绪权重数据进行总和计算,生成与所述第一实体文本数据对应的第一实体-情绪总权重数据;
根据所述第一实体-情绪总权重数据进行情绪类型分类处理;若所述第一实体-情绪总权重数据为负数则输出所述第二情绪类型为负面情绪类型;若所述第一实体-情绪总权重数据为0则输出所述第二情绪类型为中性情绪类型;若所述第一实体-情绪总权重数据为正数则输出所述第二情绪类型为正面情绪类型。
优选的,所述根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合,具体包括:
查询所述第一实体内容数据库,将所述第一类型字段与所述第一实体类型数据匹配,且所述第一名称字段与所述第一实体文本数据匹配的所述第一实体内容记录,标记为第一匹配实体内容记录;
若所述第一匹配实体内容记录的数量低于预设的实体内容数量阈值,则查询所述第一实体内容数据库,将所述第一类型字段与所述第一实体类型数据匹配的所述第一实体内容记录,标记为所述第一匹配实体内容记录;
由得到的多个所述第一匹配实体内容记录,组成所述第一实体内容记录集合。
优选的,所述从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送,具体包括:
对所述当前用户情绪类型进行识别;
当所述当前用户情绪类型为负面情绪类型时,从所述第一实体内容记录集合中提取所述第一更新时间字段为最近时间且所述第一评分字段为最高分的所述第一实体内容记录的所述第一内容字段作为第一推送内容数据,并将所述第一推送内容数据向用户进行推送;
当所述当前用户情绪类型为中性情绪类型时,从所述第一实体内容记录集合中提取所述第一更新时间字段为最近时间且所述第一评分字段超过预设的优秀评分阈值的所述第一实体内容记录组成第一推送内容列表,并将所述第一推送内容列表向用户进行推送;
当所述当前用户情绪类型为正面情绪类型时,从所述第一实体内容记录集合中提取所述第一评分字段超过预设的良好评分阈值的所述第一实体内容记录组成第二推送内容列表,并将所述第二推送内容列表向用户进行推送。
本发明实施例第二方面提供了一种用以实现上述第一方面所述的方法步骤的基于用户情绪的智能交互装置,包括:获取模块、情绪分析模块和交互应答模块;
所述获取模块用于获取用户的第一输入信息;
所述情绪分析模块用于在所述第一输入信息的信息类型为语音类型时,对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对所述第一输入信息进行语音-文本转换处理,生成第一文本数据;在所述第一输入信息的信息类型为文本类型时,将所述第一输入信息作为所述第一文本数据;并根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组,其中,所述第一实体数据组包括第一实体文本数据和第一实体类型数据;并根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型;若所述第一情绪类型不为空且所述第二情绪类型为中性情绪类型,则将所述第一情绪类型作为当前用户情绪类型;若所述第一情绪类型为空或所述第二情绪类型不为中性情绪类型,则将所述第二情绪类型作为所述当前用户情绪类型;
所述交互应答模块用于在所述第一实体类型数据为未知实体类型时,根据所述当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理;在所述第一实体类型数据不为未知实体类型,根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送。
本发明实施例第三方面提供了一种电子设备,包括:存储器、处理器和收发器;
所述处理器用于与所述存储器耦合,读取并执行所述存储器中的指令,以实现上述第一方面所述的方法步骤;
所述收发器与所述处理器耦合,由所述处理器控制所述收发器进行消息收发。
本发明实施例第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,当所述计算机指令被计算机执行时,使得所述计算机执行上述第一方面所述的方法的指令。
本发明实施例提供了一种基于用户情绪的智能交互方法、装置、电子设备及计算机可读存储介质,对用户的输入信息(文本、语音)进行情绪识别,并根据情绪识别结果来选择对应的应答方式和应答内容。通过本发明实施例,解决了无视用户情绪变化进行盲推导致的用户体验度下降的问题,降低了用户投诉率,提高了用户的使用体验,提高了推送内容的准确度。
附图说明
图1为本发明实施例一提供的一种基于用户情绪的智能交互方法示意图;
图2为本发明实施例二提供的一种基于用户情绪的智能交互装置的模块结构图;
图3为本发明实施例三提供的一种电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
信息展示平台与社交平台通过本发明实施例一提供的一种基于用户情绪的智能交互方法,对用户输入的信息进主语实体特征提取得到用户想要阐述的具体对象的实体信息,并根据用户输入信息进行情绪识别处理得到至少包括三种情绪类型(负面情绪类型、中性情绪类型和正面情绪类型)的识别结果,再结合实体信息与情绪识别结果选择对应的应答方式和内容与用户进行互动;如此一来,使得平台的与用户间的互动变得更加人性化,在加强了用户粘性的同时,也提高了推送内容的准确度和推送效率;图1为本发明实施例一提供的一种基于用户情绪的智能交互方法示意图,如图1所示,本方法主要包括如下步骤:
步骤1,获取用户的第一输入信息。
这里,第一输入信息可以为用户与信息展示平台或社交平台互动的输入信息,第一输入信息可以为用户录入的文本信息,也可以为用户录入的语音信息。若第一输入信息为文本信息则第一输入信息的信息类型就为文本类型,若第一输入信息为语音信息则第一输入信息的信息类型就为语音类型。
步骤2,若第一输入信息的信息类型为语音类型,则对第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对第一输入信息进行语音-文本转换处理,生成第一文本数据;
其中,第一情绪类型至少包括负面情绪类型、中性情绪类型和正面情绪类型;
这里,当第一输入信息的信息类型为语音类型时,信息展示平台或社交平台需要先行根据用户的语音信号特征来做一次用户情绪预识别,得到的预识别结果就是第一情绪类型;另外还会对用户录入的语音信息进行文本转换,转换得到的文本信息也就是第一文本数据会被后续步骤使用做进一步的情绪识别和用户描述对象的实体分析;
具体包括:步骤21,对第一输入信息进行语音情绪识别处理,生成第一情绪类型;
这里,步骤21具体用于对用户录入的语音信息按语音信号特征进行用户情绪预识别;
具体包括:步骤211,对第一输入信息按预设采样频率进行语音信号采样处理,生成第一语音数据序列;
这里,采样频率为预先设定的一个声音采样频率值,采样频率越高能够提取的特征信息就越多;每个采样点对应一个第一语音数据,第一语音数据序列则是全采样后的数据集合,其中的第一语音数据的排列顺序是按时间进行排列;
步骤212,对第一语音数据序列进行声谱图转换处理,生成第一声谱图矩阵;
其中,第一声谱图矩阵的横坐标为时间,纵坐标为频率,坐标点值为振幅;
这里,第一声谱图矩阵是通过对第一语音数据序列进行分帧、加窗和快速傅里叶变换之后得来的;
步骤213,将第一声谱图矩阵输入训练成熟的语音情绪识别模型进行运算,生成多个第一输出情绪类型和对应的第一输出类型概率;
其中,语音情绪识别模型至少包括基于卷积循环神经网络(ConvolutionalRecurrent Neural Network, CRNN)的语音情绪识别模型;
这里,在使用上述模型之前需要根据标注了至少三种情绪标签(负面情绪类型标签、中性情绪类型标签和正面情绪类型标签)的语音词料库对模型进行训练,在训练模型时,从词料库中选择语音词料数据输入模型进行情绪类型预测,并使用对应的情绪标签对预测结果进行误差统计,并根据误差统计结果对模型进行反向调制,直到模型输出的预测结果与对应情绪标签的误差收敛到一个合理范围之内为止;
上述模型的每个输出通道对应一个情绪标签,每个输出通道输出的数据即为模型预测出的情绪类型概率;
例如,模型情绪标签有三种:负面情绪类型标签、中性情绪类型标签和正面情绪类型标签,对应的输出通道分别为1、2、3通道,在模型预测结束后得到第1、2、3通道的数据分别为0.88、0.09、0.03;那么,会得到3组第一输出情绪类型+第一输出类型概率,分别是:第1组(第一输出情绪类型为负面情绪类型,第一输出类型概率为0.88),第2组(第一输出情绪类型为中性情绪类型,第一输出类型概率为0.09),第3组(第一输出情绪类型为正面情绪类型,第一输出类型概率为0.03);
步骤214,将概率值最大的第一输出类型概率对应的第一输出情绪类型,作为第一情绪类型;
例如,得到的3组第一输出情绪类型+第一输出类型概率是:第1组(第一输出情绪类型为负面情绪类型,第一输出类型概率为0.88),第2组(第一输出情绪类型为中性情绪类型,第一输出类型概率为0.09),第3组(第一输出情绪类型为正面情绪类型,第一输出类型概率为0.03);
那么,概率值最大的第一输出类型概率为第1组的第一输出类型概率0.88,其对应的第一输出情绪类型为负面情绪类型,也就是说第一情绪类型应为负面情绪类型;
步骤22,对第一输入信息进行语音-文本转换处理,生成第一文本数据;
这里,步骤22具体用于将用户录入的语音信息转换为文本信息也就是第一文本数据;
具体包括:步骤221,对第一输入信息按预设采样频率进行语音信号采样处理,生成第二语音数据序列;
这里,类似步骤211,不做进一步赘述;
步骤222,对第二语音数据序列进行分帧处理,生成第一语音帧数据序列;
这里,分帧的目的是为了将连续的语音数据序列分成多个语音单元,以便后续模型与每个单元进行语音识别;
步骤223,将第一语音帧数据序列输入训练成熟的端到端语音-文本转换模型进行运算,生成第一文本数据;
其中,端到端语音-文本转换模型至少包括基于连接时序分类(Connectionisttemporal classification,CTC)方法的端到端语音-文本转换模型、基于注意力机制的端到端语音-文本转换模型和基于循环神经网络变换器(Recurrent Neural Network-Transducer,RNN-T)方法的端到端语音-文本转换模型。
这里,本发明实施例为提高文本识别效率,采用的模型都是端到端语音-文本转换模型,这样就可以通过输入语音数据直接得到转换后的文本信息也就是第一文本数据;
在使用上述模型之前需要使用标注了词性的语音词料库对模型进行训练,在训练模型时,从词料库中选择语音词料数据输入模型进行文本转换预测,并使用对应的检验文本数据对预测结果进行误差统计,并根据误差统计结果对模型进行反向调制,直到模型输出的预测结果与对应检验文本数据的误差收敛到一个合理范围之内为止。
步骤3,若第一输入信息的信息类型为文本类型,则将第一输入信息作为第一文本数据。
这里,当第一输入信息的信息类型为文本类型时,信息展示平台或社交平台直接将第一输入信息作为第一文本数据送入后续步骤处理。
步骤4,根据预设的实体词典,对第一文本数据进行主语实体特征提取生成第一实体数据组;
其中,实体词典包括多个实体词语数据元;实体词语数据元至少包括实体词语文本数据、实体词语词性标签和实体词语类型标签;实体词语类型标签至少包括人名实体类型、地名实体类型、产品/服务实体类型、知识实体类型和未知实体类型;
第一实体数据组包括第一实体文本数据和第一实体类型数据;
这里,在自然语言处理(Natural Language Processing,NLP)技术领域关于文本情绪分析的子领域中,将文本中的主语(在中文的表达方式中主语通常都为代词或名词)作为情绪表达的实体对象,将文本中与情感、情绪有关的词语作为情绪词,将文本中与情感、情绪有关的短语作为情绪短语,情绪词与情绪短语又统称为情绪表达;
本发明实施例提供的实体词典实际就是用于存储与实体对象有关的代词、名词、名词短语的集合;其中每个实体词语数据元对应一个代词、名词或名词短语;每个实体词语数据元的实体词语文本数据用于存储当前词语或短语的全文,实体词语词性标签用于存储当前词语或短语的词性(常规包括名词和代词),实体词语类型标签用于存储当前词语或短语的分类类型;
对于实体词语类型标签,这里是按照当前信息展示平台或社交平台提供的服务内容对各个实体词语按关键词分类的方法进行分类的结果;例如,若实体词语文本数据为某个名人的姓名那么实体词语类型标签就应为人名实体类型,若实体词语文本数据为某个旅游景点的名称那么实体词语类型标签就应为地名实体类型,若实体词语文本数据为某个产品/服务的名称那么实体词语类型标签就应为产品/服务实体类型,若实体词语文本数据为某类知识领域的关键词那么实体词语类型标签就应为知识实体类型;
需要说明的是,若实体词语文本数据为诸如你、我、他这样的内容,其实体词语词性标签为代词,那么对应的实体词语类型标签就无法进行确认,所以其内容被设置为未知实体类型;另外,如果出现的实体词语文本数据虽然其词性为名词,但当前信息展示平台或社交平台并未给出与之相关的服务项目,那么也可以将其对应的实体词语类型标签设为未知实体类型;
当前步骤4即是在对第一文本数据中情绪表达的实体对象(默认为主语)在进行特征识别,并同时查询实体词典得到该实体对象的类型特征;第一实体数据组就是对应的特征识别结果,其中第一实体文本数据就是实体对象的文本信息,第一实体类型数据就是第一实体文本数据在实体词典中对应的实体词语类型标签;
具体包括:步骤41,将第一文本数据输入训练成熟的中文分词和词性标注模型进行运算,生成第一分词数据组序列;
其中,第一分词数据组序列包括多个第一分词数据组;第一分词数据组包括第一分词文本数据和第一分词词性数据;
这里,在对第一文本数据中情绪表达的实体对象进行识别之前,需要将第一文本数据分拆为由多个标注了词性的字、词或常用短语组成的分词集合也就是第一分词数据组序列,每个第一分词数据组对应一个字、词或常用短语,在第一分词数据组中第一分词文本数据为对应的字、词或常用短语的文本信息,第一分词词性数据为对应的字、词或常用短语的词性信息;
具体在进行分词和词性标注时,本发明实施例使用结合了中文语义结构的中文分词和词性标注模型进行操作,在使用上述模型之前需要使用标注了词性标签的词语、短语和标注了语义结构的短句组成的语料库对模型进行训练,在训练模型时,从语料库中选择词语、短语或短句输入模型进行中文分词和词性标注预测,并使用对应的词性标签和语义模板对预测结果进行误差统计,并根据误差统计结果对模型进行反向调制,直到模型输出的预测结果与对应的词性标签和语义模板的误差收敛到一个合理范围之内为止;
例如,第一文本数据为“西瓜难吃”,那么中文分词和词性标注模型结合中文名词短语的语义结构,将第一文本数据拆成“西瓜”、“难”、“吃”,对应的第一分词数据组序列就应包括3个第一分词数据组:第1个第一分词数据组的第一分词文本数据为“西瓜”,第一分词词性数据为名词;第2个第一分词数据组的第一分词文本数据为“难”,第一分词词性数据为副词;第3个第一分词数据组的第一分词文本数据为“吃”,第一分词词性数据为动词;
步骤42,按预设的主语实体分析逻辑,对第一分词数据组序列的第一分词文本数据进行主语实体识别处理,并将识别为主语的第一分词文本数据对应的第一分词数据组作为主语分词数据组;
这里,主语实体分析逻辑为预先完成验证的主语逻辑算法,该算法规定了常规语义结构中能够构成主语的文本结构特征,也就是给出了多个主语定义模板,例如,模板1:代词(代词短语)+动词的情况下代词为主语,模板2:名词(名词短语)+动词的情况下名词为主语,模板3:代词(代词短语)+“的”+名词的情况下名词为主语;模板4:名词+副词+动词的情况下名词为主语等;在对第一分词数据组序列的第一分词文本数据进行主语实体识别处理时实际就是使用已经完成验证的所有语义模板根据各个第一分词文本数据在第一分词数据组序列中的组合结构进行比对,并将最终识别出的词语作为主语识别结果进行输出;例如,若第一文本数据为“西瓜难吃”,其结构为名词+副词+动词,那么按模板4的语义规则将名词也就是“西瓜”提取出来作为主语;对应的主语分词数据组的第一分词文本数据为“西瓜”、第一分词词性数据为“名词”;
步骤43,将主语分词数据组的第一分词文本数据作为第一实体文本数据;并将主语分词数据组的第一分词词性数据作为第一实体词性数据;
例如,主语分词数据组的第一分词文本数据为“西瓜”、第一分词词性数据为“名词”;那么第一实体文本数据也就是“西瓜”,第一实体词性数据也就是“名词”;
步骤44,查询实体词典,将实体词语文本数据与第一实体文本数据匹配的,且实体词语词性标签与第一实体词性数据匹配的实体词语数据元,作为主语实体词语数据元;并将主语实体词语数据元的实体词语类型标签,作为第一实体类型数据;
例如,第一实体文本数据为“西瓜”,第一实体词性数据为“名词”;实体词典中包括5个实体词语数据元,分别为:第1个实体词语数据元(实体词语文本数据为“张某某”,实体词语词性标签为“名词”,实体词语类型标签为“人名实体类型”);第2个实体词语数据元(实体词语文本数据为“地区1”,实体词语词性标签为“名词”,实体词语类型标签为“地名实体类型”);第3个实体词语数据元(实体词语文本数据为“西瓜”,实体词语词性标签为“名词”,实体词语类型标签为“产品/服务实体类型”);第4个实体词语数据元(实体词语文本数据为“心脏病”,实体词语词性标签为“名词”,实体词语类型标签为“知识实体类型”);第5个实体词语数据元(实体词语文本数据为“我”,实体词语词性标签为“代词”,实体词语类型标签为“未知实体类型”);
那么,查询得到的主语实体词语数据元应为第3个实体词语数据元,对应的第一实体类型数据应为“产品/服务实体类型”;
需要说明的时,在进行查询时若实体词典并未包含与第一实体文本数据和第一实体词性数据匹配的实体词语数据元时,默认将第一实体类型数据设为未知实体类型;
步骤45,由第一实体文本数据和第一实体类型数据,组成第一实体数据组。
这里,第一实体数据组为(第一实体文本数据“西瓜”,第一实体类型数据“产品/服务实体类型”)。
步骤5,根据第一实体类型数据,对第一文本数据进行对应的情绪识别处理,生成第二情绪类型;
其中,第二情绪类型至少包括负面情绪类型、中性情绪类型和正面情绪类型;
这里,本发明实施例通过对文本也就是第一文本数据中实体对象的情绪表达也就是情绪词的识别,来得到第二情绪类型,第二情绪类型的类型范围与第一情绪类型的类型范围一致;
具体包括:步骤51,若第一实体类型数据为未知实体类型,则对第一文本数据进行最大权重情绪词的情绪类型识别处理,生成第二情绪类型;
这里,若第一实体类型数据为未知实体类型说明第一文本数据中的主语为代词或并未被当前信息展示平台或社交平台给出分类信息的名词或名词短语;这种情况下,本发明实施例默认只对文本也就是第一文本数据做简单的情绪划分;
具体包括:步骤511,对第一文本数据进行情绪词识别处理,生成对应的第一情绪词数据序列;
其中,第一情绪词数据序列包括多个第一情绪词数据;
这里,可使用与步骤41中的中文分词和词性标注模型近似的模型来对第一文本数据进行情绪词的分词处理,在将中文分词和词性标注模型改造为情绪词识别模型时,需要提供一个情绪词的词料库对其进行训练,该词料库实际由一些表示程度的副词,描述事物好、坏的形容词,表达实体对象喜怒哀乐等情形的动词、名词、动词短语、名词短语等构成的词料表,另外还可增加一些类似双重否定、语句转折的表达隐含情绪的语义模板来加强训练;完成训练的模型,会将输入的文本也就是第一文本数据中的所有可能的情绪词都提取出来构成第一情绪词数据序列,因为分出来的都被认为是情绪词,所以第一情绪词数据序列中不用包括词性数据;
例如,第一文本数据为“西瓜难吃”,其中“难”字被划分到情绪词的语料库中,所以得到的第一情绪词数据序列包括1个第一情绪词数据“难”;
步骤512,查询预设的情绪权重列表,将第一情绪词文本字段与各个第一情绪词数据匹配的情绪权重记录,标记为第一匹配情绪权重记录;
其中,情绪权重列表包括多个情绪权重记录;情绪权重记录包括第一情绪词文本字段和第一情绪词权重字段;
这里,情绪权重列表为预设的用于标注每个情绪字、词、词语或短语的权重数值的数据表项,每个情绪权重记录对应一个情绪字、词、词语或短语,第一情绪词文本字段为对应的情绪字、词、词语或短语的文本信息,第一情绪词权重字段为对应的情绪字、词、词语或短语的权重信息;第一情绪词权重字段的值若为正值则表示对应的情绪词为带有正面情绪的情绪词,对应的值越高则越积极;第一情绪词权重字段的值若为负值则表示对应的情绪词为带有负面情绪的情绪词,对应的值越低则越消极;
步骤513,在得到的多个第一匹配情绪权重记录中,提取第一情绪词权重字段的绝对值为最大值的第一匹配情绪权重记录的第一情绪词文本字段作为最大权重情绪词数据;
这里,因为同一个文本中可能会出现相反情绪的情绪词,那么本发明实施例默认选择其中权重绝对值为最大值的作为主要情绪特征;
例如,第一文本数据为“别担心,我在这里吃得好、睡得香”;提取出的第一情绪词数据序列为(第1个第一情绪词数据“担心”,第2个第一情绪词数据“好”,第3个第一情绪词数据“香”);情绪权重列表中包含3个情绪权重记录,分别是:第1情绪权重记录(第一情绪词文本字段“担心”,第一情绪词权重字段“-0.5”),第2情绪权重记录(第一情绪词文本字段“好”,第一情绪词权重字段“0.6”),第3情绪权重记录(第一情绪词文本字段“香”,第一情绪词权重字段“0.4”);
那么,第一情绪词权重字段的绝对值为最大值的第一匹配情绪权重记录应为第2情绪权重记录,最大权重情绪词数据应为“好”;
步骤514,查询预设的情绪类型列表,将第二情绪词文本字段与最大权重情绪词数据匹配的情绪类型记录的第一情绪类型字段作为第二情绪类型;
其中,情绪类型列表包括多个情绪类型记录;情绪类型记录包括第二情绪词文本字段和第一情绪类型字段;
这里,情绪类型列表为预设的用于标注每个情绪字、词、词语或短语对应的情绪分类类型的数据表项,每个情绪类型记录对应一个情绪字、词、词语或短语,第二情绪词文本字段为对应的情绪字、词、词语或短语的文本信息,第一情绪类型字段为对应的情绪分类类型信息;由前文可知,第一情绪类型字段至少包括三种情绪类型:负面情绪类型、中性情绪类型和正面情绪类型;
例如,最大权重情绪词数据为“好”;情绪类型列表中包含3个情绪类型记录,分别是:第1情绪类型记录(第二情绪词文本字段“担心”,第一情绪类型字段“负面情绪类型”),第2情绪类型记录(第二情绪词文本字段“好”,第一情绪类型字段“正面情绪类型”),第3情绪类型记录(第二情绪词文本字段“香”,第一情绪类型字段“正面情绪类型”);
那么,第二情绪词文本字段与最大权重情绪词数据匹配的情绪类型记录应为第2情绪类型记录,第二情绪类型应为“正面情绪类型”;
步骤52,若第一实体类型数据不为未知实体类型,则使用训练成熟的文本情绪识别模型对第一文本数据进行情绪识别处理,生成第二情绪类型;
这里,若第一实体类型数据不为未知实体类型说明第一文本数据中的主语已被当前信息展示平台或社交平台给出分类信息;这种情况下,本发明实施例会对第一文本数据做全面的情绪分析,以便后续步骤对推送内容的范围进行精确划分;在进行情绪分析时,考虑到计算量较大,本发明实施例为能够通过训练对识别精度进行持续性提高,因此使用带有深度学习能力的文本情绪识别模型来进行分析,该文本情绪识别模型的主要操作步骤如下所述;
具体包括:步骤521,文本情绪识别模型根据预设的情绪表达词典以及情绪表达组合规则,对第一文本数据进行与第一实体文本数据对应的情绪表达数据的标记处理,得到多个第一情绪表达数据;
其中,第一情绪表达数据为第一文本数据中的情绪词或情绪短语;
这里,本发明实施例提供的情绪表达词典实际就是用于存储与情绪表达的字、词、短语相关的集合;其中每个情绪表达数据元对应一个字、词、短语;每个情绪表达数据元中存储了情绪表达的文本数据,和情绪表达的词性类型;本发明实施例的情绪表达组合规则实际为一个语义模板集合,包含了多种情绪表达的语法、语义结构,类似双重否定语义模板、情绪转折语义模板等等;由情绪表达词典标记出的第一情绪表达数据可以为一个字、词或短语,由情绪表达组合规则标记出的第一情绪表达数据则一般为一个短语或短句;
步骤522,查询预设的情绪表达评分列表,将第一情绪表达文本字段与各个第一情绪表达数据匹配的情绪表达评分记录的第一情绪表达评分字段,作为对应的第一情绪表达评分数据;
其中,情绪表达评分列表包括多个情绪表达评分记录;情绪表达评分记录包括第一情绪表达文本字段和第一情绪表达评分字段;
这里,在无需对情绪进行分级的情况下,默认将属于负面情绪类型的第一情绪表达评分字段设为-1,将属于正面情绪类型的第一情绪表达评分字段设为1,将属于中性情绪类型的第一情绪表达评分字段设为0;若要对情绪进行分级,则可将各个类型各个级别对应的第一情绪表达评分字段的值按档位进行设置;
步骤523,计算第一文本数据中,各个第一情绪表达数据与第一实体文本数据的词距,生成对应的第一实体-情绪词距数据;
这里,第一实体-情绪词距数据为情绪表达的字、词或短语也就是第一情绪表达数据离主语也就是第一实体文本数据的距离,此处按二者的词距进行统计;在统计词距时,若在第一文本数据中第一情绪表达数据在第一实体文本数据的前面,那么就是计算第一情绪表达数据结束字符索引与第一实体文本数据起始字符索引的绝对差值;反之,若第一情绪表达数据在第一实体文本数据后面,那么就是计算第一情绪表达数据起始字符索引与第一实体文本数据结束字符索引的绝对差值;
步骤524,对每个第一情绪表达数据,根据对应的第一情绪表达评分数据和第一实体-情绪词距数据,计算对应的第一实体-情绪权重数据,第一实体-情绪权重数据=第一情绪表达评分数据/第一实体-情绪词距数据;
这里,本发明实施例默认情绪表达的字、词或短语也就是第一情绪表达数据离主语也就是第一实体文本数据的位置越远,则情绪的影响也就是第一实体-情绪权重数据越小;也即是第一实体-情绪词距数据越大,第一实体-情绪权重数据;
步骤525,对得到的所有第一实体-情绪权重数据进行总和计算,生成与第一实体文本数据对应的第一实体-情绪总权重数据;
例如,第一文本数据为“西瓜不甜,而且还有一股酸味”;其中第一实体文本数据为“西瓜”;有3个第一情绪表达数据:第1个第一情绪表达数据“不”,第2个第一情绪表达数据“甜”,第3个第一情绪表达数据“酸”;
对于第1个第一情绪表达数据“不”,第一情绪表达评分数据为-1,第一实体-情绪词距数据为1,第一实体-情绪权重数据=-1/1=-1;
对于第2个第一情绪表达数据“甜”,第一情绪表达评分数据为1,第一实体-情绪词距数据为2,第一实体-情绪权重数据=1/2=0.5;
对于第3个第一情绪表达数据“酸”,第一情绪表达评分数据为-1,第一实体-情绪词距数据为10, 第一实体-情绪权重数据=-1/10=-0.1;
那么,第一实体-情绪总权重数据=第1个第一实体-情绪权重数据+第2个第一实体-情绪权重数据+第3个第一实体-情绪权重数据=(-1)+0.5+(-0.1)=-0.6;
步骤526,根据第一实体-情绪总权重数据进行情绪类型分类处理;若第一实体-情绪总权重数据为负数则输出第二情绪类型为负面情绪类型;若第一实体-情绪总权重数据为0则输出第二情绪类型为中性情绪类型;若第一实体-情绪总权重数据为正数则输出第二情绪类型为正面情绪类型。
例如,第一实体-情绪总权重数据为-0.6,则说明第二情绪类型为负面情绪类型。
步骤6,若第一情绪类型不为空且第二情绪类型为中性情绪类型,则将第一情绪类型作为当前用户情绪类型;若第一情绪类型为空或第二情绪类型不为中性情绪类型,则将第二情绪类型作为当前用户情绪类型。
这里,若步骤1中用户输入的第一输入信息的信息类型为文本类型,那么只会产生一个第二情绪类型,那么当前用户情绪类型也就与第二情绪类型保持一致即可;若步骤1中用户输入的第一输入信息的信息类型为语音类型,那么会产生两个情绪识别结果:第一情绪类型和第二情绪类型,本发明实施例在第二情绪类型不为中性情绪类型时选择第二情绪类型作为当前用户情绪类型,在第二情绪类型为中性情绪类型时选择第一情绪类型作为当前用户情绪类型。
步骤7,若第一实体类型数据为未知实体类型,则根据当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理。
这里,若第一实体类型数据为未知实体类型说明第一文本数据中的主语为代词或并未被当前信息展示平台或社交平台给出分类信息的名词或名词短语;换而言之,实际就是用户的交互信息中一点都没有涉及到任何平台已经或者正在提供的服务内容,而且用户还可能处于情绪波动状态,此时当前信息展示平台或社交平台在不能清楚获悉导致用户情绪波动的实体信息之前,可以采用比较人性化的递进沟通方式与用户进行交互,也就是启发式应答处理或安抚式应答处理;
对于启发式应答处理,若当前用户情绪类型为负面情绪类型,则可以平台用相对正向的短句进行提问,用户输入信息做答的方式进行交互;若当前用户情绪类型为中性情绪类型或正面情绪类型,则可以平台主动推送列表进行提问,用户在列表做勾选做答的方式进行;
对于安抚式应答处理,只针对当前用户情绪类型为负面情绪类型的情况;平台以推送带有情绪稳定功能的文章、知识、音乐、视频、短语或表情符号的方式来与用户进行交互。
步骤8,若第一实体类型数据不为未知实体类型,则根据第一实体类型数据和第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从第一实体内容记录集合中抽取与当前用户情绪类型匹配的第一实体内容记录向用户进行推送;
其中,第一实体内容数据库包括多个第一实体内容记录;第一实体内容记录至少包括第一类型字段、第一名称字段、第一内容字段、第一评分字段和第一更新时间字段;
此处,第一实体内容数据库用于存储当前信息展示平台或社交平台的所有类型的内容信息;第一类型字段对应前文中实体词典的第一实体类型数据,至少包括人名实体类型、地名实体类型、产品/服务实体类型、知识实体类型和未知实体类型;
这里,若第一实体类型数据不为未知实体类型说明第一文本数据中的主语已被当前信息展示平台或社交平台给出分类信息;这种情况下,本发明实施例会根据当前用户情绪类型对平台内的信息做筛选,并将筛选后的数据向当前用户推送;
具体包括:步骤81,根据第一实体类型数据和第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;
具体包括:步骤811,查询第一实体内容数据库,将第一类型字段与第一实体类型数据匹配,且第一名称字段与第一实体文本数据匹配的第一实体内容记录,标记为第一匹配实体内容记录;
步骤812,若第一匹配实体内容记录的数量低于预设的实体内容数量阈值,则查询第一实体内容数据库,将第一类型字段与第一实体类型数据匹配的第一实体内容记录,标记为第一匹配实体内容记录;
这里,实体内容数量阈值为一个预先设定的系统参数,用以防止步骤811按第一实体类型数据+第一实体文本数据的精确查找的范围太窄,得到的信息数量太少;若第一匹配实体内容记录的数量低于预设的实体内容数量阈值,本发明实施例会通过介绍搜索关键字(只按第一实体类型数据来查找)的方式来扩大搜素范围、增加信息数量;
步骤813,由得到的多个第一匹配实体内容记录,组成第一实体内容记录集合;
步骤82,从第一实体内容记录集合中抽取与当前用户情绪类型匹配的第一实体内容记录向用户进行推送;
具体包括:步骤821,对当前用户情绪类型进行识别;若当前用户情绪类型为负面情绪类型则转至步骤822;若当前用户情绪类型为中性情绪类型则转至步骤823;若当前用户情绪类型为正面情绪类型则转至步骤824;
步骤822,从第一实体内容记录集合中提取第一更新时间字段为最近时间且第一评分字段为最高分的第一实体内容记录的第一内容字段作为第一推送内容数据,并将第一推送内容数据向用户进行推送;
这里,若当前用户情绪类型为负面情绪类型,则只选择最新、评价最好的信息推送,这样就能保证在用户情绪不佳时不会对其造成信息困扰;
步骤823,从第一实体内容记录集合中提取第一更新时间字段为最近时间且第一评分字段超过预设的优秀评分阈值的第一实体内容记录组成第一推送内容列表,并将第一推送内容列表向用户进行推送;
这里,若当前用户情绪类型为中性情绪类型,则可以选择最新、且评价为优秀的多个信息进行推送,并且在推送时预先将多个推送信息的标题、简介或摘要组成一个第一推送内容列表,这样以便用户直观地进行浏览和选择;
步骤824,从第一实体内容记录集合中提取第一评分字段超过预设的良好评分阈值的第一实体内容记录组成第二推送内容列表,并将第二推送内容列表向用户进行推送。
这里,若当前用户情绪类型为正面情绪类型,也就意味着当前用户的学习能力、精力都处于较好的状态,是可以接收更多信息进行阅览的,那么本发明实施例就会选择相对中性情绪类型信息范围而言更大的信息范围进行信息抽选,并将抽选出的信息以列表的方式向用户推送。
图2为本发明实施例二提供的一种基于用户情绪的智能交互装置的模块结构图,该装置可以为实现本发明实施例方法的终端设备或者服务器,也可以为与上述终端设备或者服务器连接的实现本发明实施例方法的装置,例如该装置可以是上述终端设备或者服务器的装置或芯片系统。如图2所示,该装置包括:获取模块201、情绪分析模块202和交互应答模块203。
获取模块201用于获取用户的第一输入信息。
情绪分析模块202用于在第一输入信息的信息类型为语音类型时,对第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对第一输入信息进行语音-文本转换处理,生成第一文本数据;在第一输入信息的信息类型为文本类型时,将第一输入信息作为第一文本数据;并根据预设的实体词典,对第一文本数据进行主语实体特征提取生成第一实体数据组,其中,第一实体数据组包括第一实体文本数据和第一实体类型数据;并根据第一实体类型数据,对第一文本数据进行对应的情绪识别处理,生成第二情绪类型;若第一情绪类型不为空且第二情绪类型为中性情绪类型,则将第一情绪类型作为当前用户情绪类型;若第一情绪类型为空或第二情绪类型不为中性情绪类型,则将第二情绪类型作为当前用户情绪类型。
交互应答模块203用于在第一实体类型数据为未知实体类型时,根据当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理;在第一实体类型数据不为未知实体类型,根据第一实体类型数据和第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从第一实体内容记录集合中抽取与当前用户情绪类型匹配的第一实体内容记录向用户进行推送。
本发明实施例提供的一种基于用户情绪的智能交互装置,可以执行上述方法实施例中的方法步骤,其实现原理和技术效果类似,在此不再赘述。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,获取模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上确定模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所描述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,ASIC),或,一个或多个数字信号处理器(Digital Signal Processor,DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(System-on-a-chip,SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本发明实施例所描述的流程或功能。上述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。上述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,上述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线路(Digital Subscriber Line,DSL))或无线(例如红外、无线、蓝牙、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。上述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。上述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
图3为本发明实施例三提供的一种电子设备的结构示意图。该电子设备可以为前述的终端设备或者服务器,也可以为与前述终端设备或者服务器连接的实现本发明实施例方法的终端设备或服务器。如图3所示,该电子设备可以包括:处理器31(例如CPU)、存储器32、收发器33;收发器33耦合至处理器31,处理器31控制收发器33的收发动作。存储器32中可以存储各种指令,以用于完成各种处理功能以及实现本发明上述实施例中提供的方法和处理过程。优选的,本发明实施例涉及的电子设备还包括:电源34、系统总线35以及通信端口36。系统总线35用于实现元件之间的通信连接。上述通信端口36用于电子设备与其他外设之间进行连接通信。
在图3中提到的系统总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI) 总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,RAM) ,也可能还包括非易失性存储器(Non-Volatile Memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
需要说明的是,本发明实施例还提供一种计算机可读存储介质,该存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中提供的方法和处理过程。
本发明实施例还提供一种运行指令的芯片,该芯片用于执行上述实施例中提供的方法和处理过程。
本发明实施例提供了一种基于用户情绪的智能交互方法、装置、电子设备及计算机可读存储介质,对用户的输入信息(文本、语音)进行情绪识别,并根据情绪识别结果来选择对应的应答方式和应答内容。通过本发明实施例,解决了无视用户情绪变化进行盲推导致的用户体验度下降的问题,降低了用户投诉率,提高了用户的使用体验,提高了推送内容的准确度。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于用户情绪的智能交互方法,其特征在于,所述方法包括:
获取用户的第一输入信息;
若所述第一输入信息的信息类型为语音类型,则对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对所述第一输入信息进行语音-文本转换处理,生成第一文本数据;
若所述第一输入信息的信息类型为文本类型,则将所述第一输入信息作为所述第一文本数据;
根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组;所述第一实体数据组包括第一实体文本数据和第一实体类型数据;
根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型;
若所述第一情绪类型不为空且所述第二情绪类型为中性情绪类型,则将所述第一情绪类型作为当前用户情绪类型;若所述第一情绪类型为空或所述第二情绪类型不为中性情绪类型,则将所述第二情绪类型作为所述当前用户情绪类型;
若所述第一实体类型数据为未知实体类型,则根据所述当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理;
若所述第一实体类型数据不为未知实体类型,则根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送;
其中,所述第一情绪类型和所述第二情绪类型均至少包括负面情绪类型、中性情绪类型和正面情绪类型;
所述预设的实体词典包括多个实体词语数据元;所述实体词语数据元至少包括实体词语文本数据、实体词语词性标签和实体词语类型标签;所述实体词语类型标签至少包括人名实体类型、地名实体类型、产品/服务实体类型、知识实体类型和未知实体类型;
所述第一实体内容数据库包括多个所述第一实体内容记录;所述第一实体内容记录至少包括第一类型字段、第一名称字段、第一内容字段、第一评分字段和第一更新时间字段;
所述对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型,具体包括:
对所述第一输入信息按预设采样频率进行语音信号采样处理,生成第一语音数据序列;
对所述第一语音数据序列进行声谱图转换处理,生成第一声谱图矩阵;所述第一声谱图矩阵的横坐标为时间,纵坐标为频率,坐标点值为振幅;
将所述第一声谱图矩阵输入训练成熟的语音情绪识别模型进行运算,生成多个第一输出情绪类型和对应的第一输出类型概率;所述语音情绪识别模型至少包括基于卷积循环神经网络CRNN的语音情绪识别模型;
将概率值最大的所述第一输出类型概率对应的所述第一输出情绪类型,作为所述第一情绪类型;
所述根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型,具体包括:
若所述第一实体类型数据为未知实体类型,则对所述第一文本数据进行最大权重情绪词的情绪类型识别处理,生成第二情绪类型;
若所述第一实体类型数据不为未知实体类型,则使用训练成熟的文本情绪识别模型对所述第一文本数据进行情绪识别处理,生成所述第二情绪类型,具体包括:
所述文本情绪识别模型根据预设的情绪表达词典以及情绪表达组合规则,对所述第一文本数据进行与所述第一实体文本数据对应的情绪表达数据的标记处理,得到多个第一情绪表达数据;所述第一情绪表达数据为所述第一文本数据中的情绪词或情绪短语;
查询预设的情绪表达评分列表,将第一情绪表达文本字段与各个所述第一情绪表达数据匹配的情绪表达评分记录的第一情绪表达评分字段,作为对应的第一情绪表达评分数据;所述情绪表达评分列表包括多个所述情绪表达评分记录;所述情绪表达评分记录包括所述第一情绪表达文本字段和所述第一情绪表达评分字段;
计算所述第一文本数据中,各个所述第一情绪表达数据与所述第一实体文本数据的词距,生成对应的第一实体-情绪词距数据;
对每个所述第一情绪表达数据,根据对应的所述第一情绪表达评分数据和所述第一实体-情绪词距数据,计算对应的第一实体-情绪权重数据,第一实体-情绪权重数据=第一情绪表达评分数据/第一实体-情绪词距数据;
对得到的所有所述第一实体-情绪权重数据进行总和计算,生成与所述第一实体文本数据对应的第一实体-情绪总权重数据;
根据所述第一实体-情绪总权重数据进行情绪类型分类处理;若所述第一实体-情绪总权重数据为负数则输出所述第二情绪类型为负面情绪类型;若所述第一实体-情绪总权重数据为0则输出所述第二情绪类型为中性情绪类型;若所述第一实体-情绪总权重数据为正数则输出所述第二情绪类型为正面情绪类型;
所述启发式应答处理,具体为:若所述当前用户情绪类型为负面情绪类型,则以平台用相对正向的短句进行提问,用户输入信息做答的方式进行交互;若所述当前用户情绪类型为中性情绪类型或正面情绪类型,则以平台主动推送列表进行提问,用户在列表做勾选做答的方式进行;
所述安抚式应答处理,具体为:只针对所述当前用户情绪类型为负面情绪类型的情况;平台以推送带有情绪稳定功能的文章、知识、音乐、视频、短语或表情符号的方式来与用户进行交互;
所述对所述第一输入信息进行语音-文本转换处理,生成第一文本数据,具体包括:
对所述第一输入信息按预设采样频率进行语音信号采样处理,生成第二语音数据序列;
对所述第二语音数据序列进行分帧处理,生成第一语音帧数据序列;
将所述第一语音帧数据序列输入训练成熟的端到端语音-文本转换模型进行运算,生成所述第一文本数据;所述端到端语音-文本转换模型至少包括基于连接时序分类CTC方法的端到端语音-文本转换模型、基于注意力机制的端到端语音-文本转换模型和基于循环神经网络变换器RNN-T方法的端到端语音-文本转换模型。
2.根据权利要求1所述的基于用户情绪的智能交互方法,其特征在于,所述根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组,具体包括:
将所述第一文本数据输入训练成熟的中文分词和词性标注模型进行运算,生成第一分词数据组序列;所述第一分词数据组序列包括多个第一分词数据组;所述第一分词数据组包括第一分词文本数据和第一分词词性数据;
按预设的主语实体分析逻辑,对所述第一分词数据组序列的所述第一分词文本数据进行主语实体识别处理,并将识别为主语的所述第一分词文本数据对应的所述第一分词数据组作为主语分词数据组;
将所述主语分词数据组的所述第一分词文本数据作为所述第一实体文本数据;并将所述主语分词数据组的所述第一分词词性数据作为第一实体词性数据;
查询所述实体词典,将所述实体词语文本数据与所述第一实体文本数据匹配的,且所述实体词语词性标签与所述第一实体词性数据匹配的所述实体词语数据元,作为主语实体词语数据元;并将所述主语实体词语数据元的所述实体词语类型标签,作为所述第一实体类型数据;
由所述第一实体文本数据和所述第一实体类型数据,组成所述第一实体数据组。
3.根据权利要求1所述的基于用户情绪的智能交互方法,其特征在于,所述对所述第一文本数据进行最大权重情绪词的情绪类型识别处理,生成第二情绪类型,具体包括:
对所述第一文本数据进行情绪词识别处理,生成对应的第一情绪词数据序列;所述第一情绪词数据序列包括多个第一情绪词数据;
查询预设的情绪权重列表,将第一情绪词文本字段与各个所述第一情绪词数据匹配的情绪权重记录,标记为第一匹配情绪权重记录;所述情绪权重列表包括多个所述情绪权重记录;所述情绪权重记录包括所述第一情绪词文本字段和第一情绪词权重字段;
在得到的多个所述第一匹配情绪权重记录中,提取所述第一情绪词权重字段的绝对值为最大值的所述第一匹配情绪权重记录的所述第一情绪词文本字段作为最大权重情绪词数据;
查询预设的情绪类型列表,将第二情绪词文本字段与所述最大权重情绪词数据匹配的情绪类型记录的第一情绪类型字段作为所述第二情绪类型;所述情绪类型列表包括多个所述情绪类型记录;所述情绪类型记录包括所述第二情绪词文本字段和所述第一情绪类型字段。
4.根据权利要求1所述的基于用户情绪的智能交互方法,其特征在于,所述根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合,具体包括:
查询所述第一实体内容数据库,将所述第一类型字段与所述第一实体类型数据匹配,且所述第一名称字段与所述第一实体文本数据匹配的所述第一实体内容记录,标记为第一匹配实体内容记录;
若所述第一匹配实体内容记录的数量低于预设的实体内容数量阈值,则查询所述第一实体内容数据库,将所述第一类型字段与所述第一实体类型数据匹配的所述第一实体内容记录,标记为所述第一匹配实体内容记录;
由得到的多个所述第一匹配实体内容记录,组成所述第一实体内容记录集合。
5.根据权利要求1所述的基于用户情绪的智能交互方法,其特征在于,所述从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送,具体包括:
对所述当前用户情绪类型进行识别;
当所述当前用户情绪类型为负面情绪类型时,从所述第一实体内容记录集合中提取所述第一更新时间字段为最近时间且所述第一评分字段为最高分的所述第一实体内容记录的所述第一内容字段作为第一推送内容数据,并将所述第一推送内容数据向用户进行推送;
当所述当前用户情绪类型为中性情绪类型时,从所述第一实体内容记录集合中提取所述第一更新时间字段为最近时间且所述第一评分字段超过预设的优秀评分阈值的所述第一实体内容记录组成第一推送内容列表,并将所述第一推送内容列表向用户进行推送;
当所述当前用户情绪类型为正面情绪类型时,从所述第一实体内容记录集合中提取所述第一评分字段超过预设的良好评分阈值的所述第一实体内容记录组成第二推送内容列表,并将所述第二推送内容列表向用户进行推送。
6.一种用于实现权利要求1-5任一项所述的基于用户情绪的智能交互方法的装置,其特征在于,所述装置包括:获取模块、情绪分析模块和交互应答模块;
所述获取模块用于获取用户的第一输入信息;
所述情绪分析模块用于在所述第一输入信息的信息类型为语音类型时,对所述第一输入信息进行语音情绪识别处理,生成第一情绪类型;并对所述第一输入信息进行语音-文本转换处理,生成第一文本数据;在所述第一输入信息的信息类型为文本类型时,将所述第一输入信息作为所述第一文本数据;并根据预设的实体词典,对所述第一文本数据进行主语实体特征提取生成第一实体数据组,其中,所述第一实体数据组包括第一实体文本数据和第一实体类型数据;并根据所述第一实体类型数据,对所述第一文本数据进行对应的情绪识别处理,生成第二情绪类型;若所述第一情绪类型不为空且所述第二情绪类型为中性情绪类型,则将所述第一情绪类型作为当前用户情绪类型;若所述第一情绪类型为空或所述第二情绪类型不为中性情绪类型,则将所述第二情绪类型作为所述当前用户情绪类型;
所述交互应答模块用于在所述第一实体类型数据为未知实体类型时,根据所述当前用户情绪类型,执行对应的启发式应答处理或安抚式应答处理;在所述第一实体类型数据不为未知实体类型,根据所述第一实体类型数据和所述第一实体文本数据查询预设的第一实体内容数据库得到对应的第一实体内容记录集合;并从所述第一实体内容记录集合中抽取与所述当前用户情绪类型匹配的第一实体内容记录向用户进行推送。
7.一种电子设备,其特征在于,包括:存储器、处理器和收发器;
所述处理器用于与所述存储器耦合,读取并执行所述存储器中的指令,以实现权利要求1-5任一项所述的方法步骤;
所述收发器与所述处理器耦合,由所述处理器控制所述收发器进行消息收发。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令被计算机执行时,使得所述计算机执行权利要求1-5任一项所述的方法的指令。
CN202111310673.3A 2021-11-08 2021-11-08 一种基于用户情绪的智能交互方法和装置 Active CN113743126B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111310673.3A CN113743126B (zh) 2021-11-08 2021-11-08 一种基于用户情绪的智能交互方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111310673.3A CN113743126B (zh) 2021-11-08 2021-11-08 一种基于用户情绪的智能交互方法和装置

Publications (2)

Publication Number Publication Date
CN113743126A CN113743126A (zh) 2021-12-03
CN113743126B true CN113743126B (zh) 2022-06-14

Family

ID=78727668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111310673.3A Active CN113743126B (zh) 2021-11-08 2021-11-08 一种基于用户情绪的智能交互方法和装置

Country Status (1)

Country Link
CN (1) CN113743126B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110085221A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情感交互方法、计算机设备和计算机可读存储介质
CN110910901A (zh) * 2019-10-08 2020-03-24 平安科技(深圳)有限公司 一种情绪识别方法及装置、电子设备和可读存储介质
CN111916111A (zh) * 2020-07-20 2020-11-10 中国建设银行股份有限公司 带情感的智能语音外呼方法及装置、服务器、存储介质
CN113380271A (zh) * 2021-08-12 2021-09-10 明品云(北京)数据科技有限公司 情绪识别方法、系统、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9817814B2 (en) * 2015-12-31 2017-11-14 Accenture Global Solutions Limited Input entity identification from natural language text information
CN110085211B (zh) * 2018-01-26 2021-06-29 上海智臻智能网络科技股份有限公司 语音识别交互方法、装置、计算机设备和存储介质
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
US10990614B1 (en) * 2018-09-19 2021-04-27 Amazon Technologies, Inc. Endpoint device relationships in processing user inputs
CN110379445A (zh) * 2019-06-20 2019-10-25 深圳壹账通智能科技有限公司 基于情绪分析的业务处理方法、装置、设备及存储介质
CN110931006A (zh) * 2019-11-26 2020-03-27 深圳壹账通智能科技有限公司 基于情感分析的智能问答方法及相关设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110085221A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情感交互方法、计算机设备和计算机可读存储介质
CN110910901A (zh) * 2019-10-08 2020-03-24 平安科技(深圳)有限公司 一种情绪识别方法及装置、电子设备和可读存储介质
CN111916111A (zh) * 2020-07-20 2020-11-10 中国建设银行股份有限公司 带情感的智能语音外呼方法及装置、服务器、存储介质
CN113380271A (zh) * 2021-08-12 2021-09-10 明品云(北京)数据科技有限公司 情绪识别方法、系统、设备及介质

Also Published As

Publication number Publication date
CN113743126A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
US11403680B2 (en) Method, apparatus for evaluating review, device and storage medium
Serban et al. A deep reinforcement learning chatbot
Cahn CHATBOT: Architecture, design, & development
CN108763510B (zh) 意图识别方法、装置、设备及存储介质
WO2019153522A1 (zh) 智能交互方法、电子装置及存储介质
US20170185581A1 (en) Systems and methods for suggesting emoji
WO2015062482A1 (en) System and method for automatic question answering
CN112069298A (zh) 基于语义网和意图识别的人机交互方法、设备及介质
KR20190019962A (ko) 컴퓨터 학습 및 이해를 위한 아키텍처 및 프로세스들
US9710829B1 (en) Methods, systems, and articles of manufacture for analyzing social media with trained intelligent systems to enhance direct marketing opportunities
Korpusik et al. Spoken language understanding for a nutrition dialogue system
CN113468894B (zh) 对话交互方法及装置、电子设备和计算机可读存储介质
US11354599B1 (en) Methods and systems for generating a data structure using graphical models
CN111414746A (zh) 一种匹配语句确定方法、装置、设备及存储介质
CN116662518A (zh) 问答方法、装置、电子设备及可读存储介质
CN112818096A (zh) 对话生成方法及其装置
CN113743126B (zh) 一种基于用户情绪的智能交互方法和装置
Lee Natural Language Processing: A Textbook with Python Implementation
Korpusik et al. Dialogue state tracking with convolutional semantic taggers
CN115577109A (zh) 文本分类方法、装置、电子设备及存储介质
CN115292492A (zh) 意图分类模型的训练方法、装置、设备及存储介质
JP7212888B2 (ja) 自動対話装置、自動対話方法、およびプログラム
Shenoy et al. Design of chatbot using natural language processing
US20240127026A1 (en) Shallow-deep machine learning classifier and method
Sicilia et al. ISABEL: An Inclusive and Collaborative Task-Oriented Dialogue System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant