CN111949778A - 一种基于用户情绪的智能语音对话方法、装置及电子设备 - Google Patents
一种基于用户情绪的智能语音对话方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111949778A CN111949778A CN202010727400.8A CN202010727400A CN111949778A CN 111949778 A CN111949778 A CN 111949778A CN 202010727400 A CN202010727400 A CN 202010727400A CN 111949778 A CN111949778 A CN 111949778A
- Authority
- CN
- China
- Prior art keywords
- user
- emotion
- audio data
- conversation
- changed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
本发明公开了一种基于用户情绪的智能语音对话方法、装置及电子设备,所述方法包括:实时采集对话数据;根据所述对话数据判断用户的情绪类型是否发生改变;若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。本发明实时采集语音机器人与用户的对话数据;根据所述对话数据判断用户的情绪类型是否发生改变;若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。这样,在语音机器人与用户的对话过程中能够实时根据用户的情绪类型选择对应的情绪话术来安抚用户,减缓用户反感、厌恶等负面情绪,保证与用户通畅、有效的交流。
Description
技术领域
本发明涉及语音智能技术领域,具体而言,涉及一种基于用户情绪的智能语音对话方法、装置、电子设备及计算机可读介质。
背景技术
智能语音交互(Intelligent Speech Interaction),是基于语音识别、语音合成、自然语言理解等技术,为企业在多种实际应用场景下,赋予产品“能听、会说、懂你”式的智能人机交互体验。适用于多个应用场景中,包括电话销售、智能问答、智能质检、实时演讲字幕、访谈录音等场景。在金融、保险、司法、电商等多个领域均有应用。
以电话销售为例,电销机器人通常会机械性的采用预设的话术模板与用户进行多轮对话。但在实际对话过程中,用户的情绪不是一成不变的,其可能会因为电销机器人的某句话或者某些突发事件产生烦躁、生气、失落等负面情绪,而现有电销机器人捕捉不到用户的情绪变化,其始终都会采用预设的话术模板与用户进行对话,这就会引起用户反感,出现挂机、投诉等现象。
发明内容
本发明旨在解决电销机器人在对话过程中未顾及用户的情绪变化,引起用户反感的技术问题。
为了解决上述技术问题,本发明第一方面提出一种基于用户情绪的智能语音对话方法,所述方法包括:
实时采集对话数据;
根据所述对话数据判断用户的情绪类型是否发生改变;
若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
根据本发明一种优选实施方式,所述采用与改变后的情绪类型对应的情绪话术与用户进行对话之前,所述方法还包括:
创建寒暄库;所述寒暄库包括对应不同情绪类型的情绪话术。
根据本发明一种优选实施方式,所述根据所述对话数据判断用户的情绪类型是否发生改变包括:
获取所述对话数据中至少最近两轮对话的音频数据段;
提取所述音频数据段中的用户音频数据段;所述用户音频数据段是在对话中用户发出的音频产生的音频数据段;
检测各个用户音频数据段的情绪参数;
根据各个用户音频数据段的情绪参数的比较结果判断用户的情绪类型是否发生改变。
根据本发明一种优选实施方式,所述情绪参数包括:
语速、语调和情绪关键词。
根据本发明一种优选实施方式,所述寒暄库还包括行业基础知识话术,所述方法还包括:
检测最近一次用户音频数据段中是否有行业疑问术语;
若最近一次用户音频数据段中有行业疑问术语,采用与所述行业疑问术语对应的行业基础知识话术与用户进行对话。
根据本发明一种优选实施方式,所述检测最近一次用户音频数据段中是否有行业疑问术语包括:
将最近一次用户音频数据段转换为音频文本;
解析所述音频文本,并根据预设的行业关键词和疑问关键词进行匹配;
若在所述音频文本中同时匹配到行业关键词和疑问关键词,确定所述最近一次用户音频数据段中有行业疑问术语。
为了解决上述技术问题,本发明第二方面提供一种基于用户情绪的智能语音对话装置,所述装置包括:
采集模块,用于实时采集对话数据;
判断模块,用于根据所述对话数据判断用户的情绪类型是否发生改变;
第一对话模块,用于若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
根据本发明一种优选实施方式,所述装置还包括:
创建模块,用于创建寒暄库;所述寒暄库包括对应不同情绪类型的情绪话术。
根据本发明一种优选实施方式,所述判断模块包括:
获取模块,用于获取所述对话数据中至少最近两轮对话的音频数据段;
第一提取模块,用于提取所述音频数据段中的用户音频数据段;所述用户音频数据段是在对话中用户发出的音频产生的音频数据段;
第一检测模块,用于检测各个用户音频数据段的情绪参数;
子判断模块,用于根据各个用户音频数据段的情绪参数的比较结果判断用户的情绪类型是否发生改变。
根据本发明一种优选实施方式,所述情绪参数包括:
语速、语调和情绪关键词。
根据本发明一种优选实施方式,所述寒暄库还包括行业基础知识话术,所述装置还包括:
第二检测模块,用于检测最近一次用户音频数据段中是否有行业疑问术语;
第二对话模块,用于若最近一次用户音频数据段中有行业疑问术语,采用与所述行业疑问术语对应的行业基础知识话术与用户进行对话。
根据本发明一种优选实施方式,所述第二检测模块包括:
转换模块,用于将最近一次用户音频数据段转换为音频文本;
解析匹配模块,用于解析所述音频文本,并根据预设的行业关键词和疑问关键词进行匹配;
确定模块,用于若在所述音频文本中同时匹配到行业关键词和疑问关键词,确定所述最近一次用户音频数据段中有行业疑问术语。
为解决上述技术问题,本发明第三方面提供一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行上述的方法。
为了解决上述技术问题,本发明第四方面提出一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现上述方法。
本发明实时采集语音机器人与用户的对话数据;根据所述对话数据判断用户的情绪类型是否发生改变;若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。这样,在语音机器人(尤其是电销机器人)与用户的对话过程中能够实时根据用户的情绪类型选择对应的情绪话术来安抚用户,减缓用户反感、厌恶等负面情绪,保证与用户通畅、有效的交流。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是本发明一种基于用户情绪的智能语音对话方法的流程示意图;
图2是本发明根据对话数据判断用户的情绪类型是否发生改变的流程示意图;
图3是本发明一种基于用户情绪的智能语音对话装置的结构框架示意图;
图4是根据本发明的一种电子设备的示例性实施例的结构框图;
图5是本发明一个计算机可读介质实施例的示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
请参阅图1,图1是本发明提供的一种基于用户情绪的智能语音对话方法的流程图,如图1所示,所述方法包括:
S1、实时采集对话数据;
其中,所述对话数据是指语音机器人与用户之间的对话数据。
S2、根据所述对话数据判断用户的情绪类型是否发生改变;
其中,所述情绪类型可以包括高兴、积极互动等正面的情绪类型,也可以包括烦躁、冷漠等负面的情绪类型。本发明可以根据用户在最近预设时间段内(如最近1分钟内)的对话数据判断用户的情绪类型是否发生改变。具体的,如图2所示,本步骤包括:
S21、获取所述对话数据中至少最近两轮对话的音频数据段;
本发明中,可以将实时采集的对话数据以单轮对话的音频数据为单位缓存至存储单元中。再实时从存储单元中获取对话数据中至少最近两轮对话的音频数据段。
其中,单轮对话的音频数据指语音机器人与用户各说一次语音产生的音频数据。比如语音机器人第一次语音说:“XX先生,您好!”用户第一次语音说:“你好!”语音机器人第二次语音说:“我是XXX”。则语音机器人第一次语音与用户第一次语音产生的音频数据为单轮对话的音频数据。
在另一种实施方式中,也可以实时从存储单元中获取对话数据中预设时间段内(如最近1分钟内)的音频数据段。
S22、提取所述音频数据段中的用户音频数据段;
其中,所述用户音频数据段是在对话中用户发出的音频产生的音频数据段;具体的,在采集对话数据过程中,可以通过角色标识符标识语音机器人发出的音频数据段。这样,只需提取没有角色标识符标识的音频数据段即可。
此外,还可以通过说话人识别技术(speaker recognition)识别语音机器人发出的音频数据。提取非语音机器人发出的音频数据段即可。其中,说话人识别技术通过获取语音机器人大量的训练音频,分帧提取梅尔频率倒谱系数(Mel-frequency cepstralcoefficients,MFCC)向量,并把这些向量拟合成语音机器人的多维高斯混合模型(Gaussian Mixture Model,GMM)。在识别说话人时,提取待识别语音的MFCC向量,并计算它们在语音机器人的多维高斯混合模型下的似然值,取最大者即为语音机器人发出的音频数据段。
S23、检测各个用户音频数据段的情绪参数;
其中,所述情绪参数包括:语速、语调和情绪关键词。所述情绪关键词是可以反映情绪的词语或者语段,具体可以是:“没时间”、“不关心”、“不感兴趣”、“烦人”、“不要再打扰”等反映用户负面情绪类型的语段,也可以是:“介绍一下”、“了解一下”、“购买”、“价格”等反映用户积极、正面情绪类型的语段。
本发明中,可以先检测各个用户音频数据段的语速和语调,再将各个用户音频数据段转换为对应的用户文本数据段,提取各个用户文本数据段的情绪关键词。
在提取各个用户文本数据段的情绪关键词时,可以先选取情绪关键词的同义词、近义词、同义语段等形成情绪关键词候选集,比如情绪关键词为没时间,则情绪关键词候选集可以包括:忙着呢、没空等。具体在提取时,先对文本数据段进行解析,再根据情绪关键词候选集逐词模糊匹配,得到情绪关键词。
S24、根据各个用户音频数据段的情绪参数的比较结果判断用户的情绪类型是否发生改变。
本发明中,用户的情绪类型包括积极、配合的正面情绪类型和冷漠、抵触的负面情绪类型。
在具体判断过程中,优先比较各个用户音频数据段的情绪关键词,判断上次用户音频数据段的情绪关键词与本次用户音频数据段的情绪关键词的情绪类型是否发生改变。若发生改变,则确定用户的情绪类型发生改变。其中,“没时间”、“不关心”、“不感兴趣”、“烦人”、“不要再打扰”等反映用户负面情绪类型的情绪关键词为负面情绪类型的情绪关键词,“介绍一下”、“了解一下”、“购买”、“价格”等反映用户积极、正面情绪类型的情绪关键词为正面情绪类型的情绪关键词。
若未发生改变,则进一步比较各个用户音频数据段的语调和语速是否同时发生改变,若同时发生改变,则判断语调的改变方向与语速的改变方向是否一致。
其中,所述语调指说话的腔调,包括:升调、降调、平调和曲调四种类型。升调反映说话人情绪亢奋、用于提出问题、等待回答、感到意外、情绪惊恐、发布命令时。降调反映说话人情绪稳定、用于陈述、肯定、感叹时。平调反映说话人情绪沉稳,用于庄重严肃、冷漠淡然、思索回忆时。曲调反映说话人情绪激动,用于言外有意、讽刺嘲笑、意外事件时。本发明中,将语调从降调或者平调变为升调或者曲调称为负面改变方向,将语调从升调或者曲调变为降调或者平调称为正面改变方向,将语调从降调变为平调、从平调变为降调、从升调变为曲调、或者从曲调变为升调视为语调未发生变化。所述语速指说话的速度,本发明预先设置语速阈值,当一段音频的语速小于等于该语速阈值时视为慢语速,当一段音频的语速大于该语速阈值时视为快语速。将语速从慢语速变为快语速视为负面改变方向,将将语速从快语速变为慢语速视为正面改变方向。
若语调的改变方向与语速的改变方向一致,即同为正面改变方向或者,同为负面改变方向,则确定用户的情绪类型发生改变。
S3、若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
为了照顾到用户的情绪,创建良好的对话氛围,在本步骤之前,可以先创建寒暄库;其中,所述寒暄库包括对应不同情绪类型的情绪话术。例如,对应正面情绪类型的情绪话术可以设置为:“很荣幸与您谈话”、“很荣幸向您介绍”等等。对应负面情绪类型的情绪话术可以设置为:“您不必担忧”、“生气影响健康哦”等等。进一步的,还可以为不同的情绪话术设置与其匹配的解析语义。所述解析语义是对已发生的对话数据解析得到的。例如,设置与解析语义“介绍”匹配的情绪话术为“很荣幸向您介绍”。
在具体实施过程中,若确定用户的情绪类型发生改变,提取改变后用户的情绪类型,同时对前几轮对话数据进行语义解析得到当前解析语义,最后从寒暄库中选取与改变后用户情绪类型相对应且与所述当前解析语义相匹配的情绪话术与用户进行对话。
考虑到智能语音对话过程中,用户可能会对一些行业术语、行业基础知识不了解。为了增进智能对话双方的理解度,提高谈话效率。所述寒暄库还包括与所述行业疑问术语对应的行业基础知识话术,所述方法还包括:
S4、检测最近一次用户音频数据段中是否有行业疑问术语;
其中,所述行业疑问术语同时包含行业关键词和疑问关键词。所述行业关键词对应行业术语,如保险业的“重疾险”。所述疑问关键词可以是“吗”、“行不行”等表示疑问的词。
本步骤中,先将最近一次用户音频数据段转换为音频文本;解析所述音频文本,并根据预设的行业关键词和疑问关键词进行匹配;若在所述音频文本中同时匹配到行业关键词和疑问关键词,确定所述最近一次用户音频数据段中有行业疑问术语。
S5、若最近一次用户音频数据段中有行业疑问术语,采用与所述行业疑问术语对应的行业基础知识话术与用户进行对话。
本发明中,通过行业关键词将行业疑问术语与行业基础知识对应起来。例如,行业疑问术语中包含“重疾险”,则其对应的行业基础知识也包含“重疾险”。
图3是本发明一种基于用户情绪的智能语音对话装置的架构示意图,如图3所示,所述装置包括:
创建模块30,用于创建寒暄库;所述寒暄库包括对应不同情绪类型的情绪话术。
采集模块31,用于实时采集对话数据;
判断模块32,用于根据所述对话数据判断用户的情绪类型是否发生改变;
第一对话模块33,用于若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
在一种具体实施方式中,所述判断模块32包括:
获取模块321,用于获取所述对话数据中至少最近两轮对话的音频数据段;
第一提取模块322,用于提取所述音频数据段中的用户音频数据段;所述用户音频数据段是在对话中用户发出的音频产生的音频数据段;
第一检测模块323,用于检测各个用户音频数据段的情绪参数;其中,所述情绪参数包括:语速、语调和情绪关键词。
子判断模块324,用于根据各个用户音频数据段的情绪参数的比较结果判断用户的情绪类型是否发生改变。
进一步的,所述寒暄库还包括行业基础知识话术,所述装置还包括:
第二检测模块34,用于检测最近一次用户音频数据段中是否有行业疑问术语;
第二对话模块35,用于若最近一次用户音频数据段中有行业疑问术语,采用与所述行业疑问术语对应的行业基础知识话术与用户进行对话。
在一种具体实施方式中,所述第二检测模块34包括:
转换模块,用于将最近一次用户音频数据段转换为音频文本;
解析匹配模块,用于解析所述音频文本,并根据预设的行业关键词和疑问关键词进行匹配;
确定模块,用于若在所述音频文本中同时匹配到行业关键词和疑问关键词,确定所述最近一次用户音频数据段中有行业疑问术语。
本领域技术人员可以理解,上述装置实施例中的各模块可以按照描述分布于装置中,也可以进行相应变化,分布于不同于上述实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的实体形式的实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图4是根据本发明的一种电子设备的示例性实施例的结构框图。图4显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,该示例性实施例的电子设备400以通用数据处理设备的形式表现。电子设备400的组件可以包括但不限于:至少一个处理单元410、至少一个存储单元420、连接不同电子设备组件(包括存储单元420和处理单元41O)的总线430、显示单元440等。
其中,所述存储单元420存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元410执行,使得所述处理单元410执行本发明各种实施方式的步骤。例如,所述处理单元410可以执行如图1所示的步骤。
所述存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。所述存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作电子设备、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备300(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备400与该电子设备400交互,和/或使得该电子设备400能与一个或多个其它数据处理设备(例如路由器、调制解调器等等)进行通信。这种通信可以通过输入/输出(I/O)接口450进行,还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器460可以通过总线430与电子设备400的其它模块通信。应当明白,尽管图4中未示出,电子设备400中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID电子设备、磁带驱动器以及数据备份存储电子设备等。
图5是本发明的一个计算机可读介质实施例的示意图。如图5所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的电子设备、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:实时采集对话数据;根据所述对话数据判断用户的情绪类型是否发生改变;若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行电子设备、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语音的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语音包括面向对象的程序设计语音-诸如Java、C++等,还包括常规的过程式程序设计语音-诸如“C”语音或类似的程序设计语音。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于用户情绪的智能语音对话方法,其特征在于,所述方法包括:
实时采集对话数据;
根据所述对话数据判断用户的情绪类型是否发生改变;
若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
2.根据权利要求1所述的方法,其特征在于,所述采用与改变后的情绪类型对应的情绪话术与用户进行对话之前,所述方法还包括:
创建寒暄库;所述寒暄库包括对应不同情绪类型的情绪话术。
3.根据权利要求1-2中任一项所述的方法,其特征在于,所述根据所述对话数据判断用户的情绪类型是否发生改变包括:
获取所述对话数据中至少最近两轮对话的音频数据段;
提取所述音频数据段中的用户音频数据段;所述用户音频数据段是在对话中用户发出的音频产生的音频数据段;
检测各个用户音频数据段的情绪参数;
根据各个用户音频数据段的情绪参数的比较结果判断用户的情绪类型是否发生改变。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述情绪参数包括:
语速、语调和情绪关键词。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述寒暄库还包括行业基础知识话术,所述方法还包括:
检测最近一次用户音频数据段中是否有行业疑问术语;
若最近一次用户音频数据段中有行业疑问术语,采用与所述行业疑问术语对应的行业基础知识话术与用户进行对话。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述检测最近一次用户音频数据段中是否有行业疑问术语包括:
将最近一次用户音频数据段转换为音频文本;
解析所述音频文本,并根据预设的行业关键词和疑问关键词进行匹配;
若在所述音频文本中同时匹配到行业关键词和疑问关键词,确定所述最近一次用户音频数据段中有行业疑问术语。
7.一种基于用户情绪的智能语音对话装置,其特征在于,所述装置包括:
采集模块,用于实时采集对话数据;
判断模块,用于根据所述对话数据判断用户的情绪类型是否发生改变;
第一对话模块,用于若用户的情绪类型发生改变,采用与改变后的情绪类型对应的情绪话术与用户进行对话。
8.一种电子设备,包括:
处理器;以及
存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器执行根据权利要求1-6中任一项所述的方法。
9.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,当所述一个或多个程序被处理器执行时,实现权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010727400.8A CN111949778A (zh) | 2020-07-24 | 2020-07-24 | 一种基于用户情绪的智能语音对话方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010727400.8A CN111949778A (zh) | 2020-07-24 | 2020-07-24 | 一种基于用户情绪的智能语音对话方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111949778A true CN111949778A (zh) | 2020-11-17 |
Family
ID=73338093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010727400.8A Withdrawn CN111949778A (zh) | 2020-07-24 | 2020-07-24 | 一种基于用户情绪的智能语音对话方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111949778A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507094A (zh) * | 2020-12-11 | 2021-03-16 | 润联软件系统(深圳)有限公司 | 一种基于强化学习的客服机器人对话方法及其相关组件 |
CN112992150A (zh) * | 2021-03-10 | 2021-06-18 | 中国工商银行股份有限公司 | 话术模板使用效果评价方法及装置 |
-
2020
- 2020-07-24 CN CN202010727400.8A patent/CN111949778A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507094A (zh) * | 2020-12-11 | 2021-03-16 | 润联软件系统(深圳)有限公司 | 一种基于强化学习的客服机器人对话方法及其相关组件 |
CN112507094B (zh) * | 2020-12-11 | 2021-07-13 | 润联软件系统(深圳)有限公司 | 一种基于强化学习的客服机器人对话方法及其相关组件 |
CN112992150A (zh) * | 2021-03-10 | 2021-06-18 | 中国工商银行股份有限公司 | 话术模板使用效果评价方法及装置 |
CN112992150B (zh) * | 2021-03-10 | 2022-06-21 | 中国工商银行股份有限公司 | 话术模板使用效果评价方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11380327B2 (en) | Speech communication system and method with human-machine coordination | |
Juang et al. | Automatic recognition and understanding of spoken language-a first step toward natural human-machine communication | |
Kumar et al. | A Hindi speech recognition system for connected words using HTK | |
US8219397B2 (en) | Data processing system for autonomously building speech identification and tagging data | |
CN111933129A (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN110689877A (zh) | 一种语音结束端点检测方法及装置 | |
Zhang et al. | Improving sequence-to-sequence voice conversion by adding text-supervision | |
JP2019101064A (ja) | 応答文生成装置、方法及びプログラム並びに音声対話システム | |
CN114330371A (zh) | 基于提示学习的会话意图识别方法、装置和电子设备 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
Kopparapu | Non-linguistic analysis of call center conversations | |
Chiba et al. | An analysis of the effect of emotional speech synthesis on non-task-oriented dialogue system | |
CN112562682A (zh) | 基于多人通话的身份识别方法、系统、设备及存储介质 | |
CN111489743A (zh) | 一种基于智能语音技术的运营管理分析系统 | |
CN111949778A (zh) | 一种基于用户情绪的智能语音对话方法、装置及电子设备 | |
Pervaiz et al. | Emotion recognition from speech using prosodic and linguistic features | |
CN112087726B (zh) | 彩铃识别的方法及系统、电子设备及存储介质 | |
Jia et al. | A deep learning system for sentiment analysis of service calls | |
CN111949777A (zh) | 一种基于人群分类的智能语音对话方法、装置及电子设备 | |
Gilbert et al. | Intelligent virtual agents for contact center automation | |
Ward et al. | Towards continuous estimation of dissatisfaction in spoken dialog | |
CN115691500A (zh) | 一种基于时延神经网络的电力客服语音识别方法及装置 | |
CN112017668B (zh) | 一种基于实时情感检测的智能语音对话方法、装置和系统 | |
Maehama et al. | Enabling robots to distinguish between aggressive and joking attitudes | |
JP2004347732A (ja) | 言語自動識別方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201117 |