CN110874394A - 智能答疑方法、电子装置及存储介质 - Google Patents

智能答疑方法、电子装置及存储介质 Download PDF

Info

Publication number
CN110874394A
CN110874394A CN201910969073.4A CN201910969073A CN110874394A CN 110874394 A CN110874394 A CN 110874394A CN 201910969073 A CN201910969073 A CN 201910969073A CN 110874394 A CN110874394 A CN 110874394A
Authority
CN
China
Prior art keywords
matching
text information
information
voice
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910969073.4A
Other languages
English (en)
Inventor
肖兴愿
汪文娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Property and Casualty Insurance Company of China Ltd
Original Assignee
Ping An Property and Casualty Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Property and Casualty Insurance Company of China Ltd filed Critical Ping An Property and Casualty Insurance Company of China Ltd
Priority to CN201910969073.4A priority Critical patent/CN110874394A/zh
Publication of CN110874394A publication Critical patent/CN110874394A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种智能答疑方法,应用于电子装置,该方法包括设定第一关键词与匹配条件,建立第一标签与第二标签。将答疑请求语音信息转换成文本信息,计算文本信息中每个词语的得分,从文本信息中选取预设数量的词语作为第二关键词。对文本信息及匹配条件进行匹配分析,判断文本信息中的每个第二关键词在匹配条件中是否存在对应的第一关键词,若存在则获取对应的预设答案发送给客户端。若不存在,同时判断语音情绪类型为不满时,选取匹配值中的最大值作为最佳答疑者推荐给当前用户。本发明能够在判断无法解答用户提出的问题时,自动识别用户当前的情绪类别,当识别结果为不满时,自动选取匹配值最高的答疑者推荐给用户,提升用户满意度。

Description

智能答疑方法、电子装置及存储介质
技术领域
本发明涉及数据处理技术领域,尤其涉及一种智能答疑方法、电子装置及存储介质。
背景技术
随着人工智能技术的快速发展,越来越多地应用在生活中,例如智能答疑,用户通过文字或者语音的形式将问题传递给智能答疑终端,智能答疑终端识别用户的问题后在数据库中查找对应的答案反馈给用户。
但是,对于用户的一些隐性知识提问,当智能答疑终端给不出用户期望的答复,甚至给不出答复时,会给用户给来极差的体验感,因此,如何在智能答疑终端无法解答用户的问题时,能够更好地应对成为了亟需解决的技术问题。
发明内容
本发明的主要目的在于提供一种智能答疑方法、电子装置及存储介质,旨在如何在智能答疑终端无法解答用户的问题时,能够更好地采取措施应对的问题。
为实现上述目的,本发明提供的一种智能答疑方法,应用于电子装置,该方法包括:
设置步骤:在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于所述数据库;
建立步骤:获取历史用户的属性信息,根据所述历史用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量;
接收步骤:接收客户端的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词;
第一处理步骤:对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端;及
第二处理步骤:若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
优选地,所述计分算法为:
Figure BDA0002231471590000021
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
优选地,所述对所述文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境的根对象中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式;及
根据所述表达式对存储于根对象中的所述文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
优选地,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
优选地,该方法还包括准备步骤:
在数据库中预先设定通用答复信息,当所述当前用户等待时间超过预设时间阈值时,将所述通用答复信息反馈至所述客户端。
为实现上述目的,本发明还进一步提供一种电子装置,所述电子装置包括存储器和处理器,所述存储器上存储有智能答疑程序,所述智能答疑程序被所述处理器执行时实现如下步骤:
所述智能答疑程序被所述处理器执行时实现如下步骤:
设置步骤:在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于所述数据库;
建立步骤:获取历史用户的属性信息,根据所述历史用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量;
接收步骤:接收客户端的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词;
第一处理步骤:对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端;及
第二处理步骤:若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
优选地,所述计分算法为:
Figure BDA0002231471590000041
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
优选地,所述对所述文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境的根对象中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式;及
根据所述表达式对存储于根对象中的所述文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
优选地,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
为实现上述目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质上存储有智能答疑程序,所述智能答疑程序可被一个或者多个处理器执行,以实现如上所述的智能答疑方法的步骤。
本发明提出的智能答疑方法、电子装置及存储介质,通过设定第一关键词与匹配条件,建立第一标签与第二标签。将答疑请求语音信息转换成文本信息,计算文本信息中每个词语的得分,从文本信息中选取预设数量的词语作为第二关键词。对文本信息及匹配条件进行匹配分析,判断文本信息中的每个第二关键词在匹配条件中是否存在对应的第一关键词,若存在则获取对应的预设答案发送给客户端。若不存在,同时判断语音情绪类型为不满时,选取匹配值中的最大值作为最佳答疑者推荐给用户。本发明能够在判断无法解答用户提出的问题时,自动识别用户当前的情绪类别,当识别结果为不满时,自动获取用户的属性信息及答疑者的属性信息进行匹配值计算,根据计算结果选取匹配值最高的答疑者推荐给用户,进行一对一人工答疑,提升用户的满意度。
附图说明
图1为本发明电子装置较佳实施例的应用环境图;
图2为图1中智能答疑程序较佳实施例的程序模块示意图;
图3为本发明智能答疑方法较佳实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本发明的目的、技术本实施例及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术本实施例可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术本实施例的结合出现相互矛盾或无法实现时应当认为这种技术本实施例的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种电子装置1。
所述电子装置1包括,但不仅限于,存储器11、处理器12及网络接口13。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是电子装置1的内部存储单元,例如该电子装置1的硬盘。存储器11在另一些实施例中也可以是电子装置1的外部存储设备,例如该电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
进一步地,存储器11还可以既包括电子装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于电子装置1的应用软件及各类数据,例如智能答疑程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行智能答疑程序10等。
网络接口13可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子装置与其他电子设备之间建立通信连接。
客户端14可以是桌上型计算机、笔记本、平板电脑、手机等。
网络15可以为互联网、云网络、无线保真(Wi-Fi)网络、个人网(PAN)、局域网(LAN)和/或城域网(MAN)。网络环境中的各种设备可以被配置为根据各种有线和无线通信协议连接到通信网络。这样的有线和无线通信协议的例子可以包括但不限于以下中的至少一个:传输控制协议和互联网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、文件传输协议(FTP)、ZigBee、EDGE、IEEE 802.11、光保真(Li-Fi)、802.16、IEEE 802.11s、IEEE 802.11g、多跳通信、无线接入点(AP)、设备对设备通信、蜂窝通信协议和/或蓝牙(BlueTooth)通信协议或其组合。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以称为显示屏或显示单元,用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
图1仅示出了具有组件11-15以及智能答疑程序10的电子装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对电子装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在本实施例中,图1的智能答疑程序10被处理器12执行时,实现以下步骤:
设置步骤:在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于所述数据库;
建立步骤:获取历史用户的属性信息,根据所述历史用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量;
接收步骤:接收客户端的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词;
第一处理步骤:基于OGNL表达式语言对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端14;及
第二处理步骤:若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
在另一实施例中,该方法还包括准备步骤:
在数据库中预先设定通用答复信息,当所述当前用户等待时间超过预设时间阈值时,将所述通用答复信息反馈至所述客户端14。
关于上述步骤的详细介绍,请参照下述图2关于智能答疑程序10实施例的程序模块示意图及图3关于智能答疑方法实施例的方法流程示意图的说明。
参照图2所示,为图1中智能答疑程序10实施例的程序模块示意图。智能答疑程序10被分割为多个模块,该多个模块存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
在本实施例中,所述智能答疑程序10包括设置模块110、建立模块120、接收模块130、第一处理模块140及第二处理模块150。
设置模块110,用于在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于数据库。
在本实施例中,预先在数据库中设定至少一个第一关键词(包含在预设答案中),第一关键词可以是与用户提出的问题关联性较大的专业性名词等,具体视问题类型而定。根据设定的第一关键词,基于预先确定的匹配条件生成规则生成匹配条件,将生成的匹配条件与预设答案建立映射关系存储在数据库中。
其中,所述匹配条件生成规则为:
根据所述第一关键词及预设的数据范围生成匹配条件。
所述预设的数据范围通过以下关系式进行设置:contains(包含)、not cont ains(不包含)。
例如,匹配条件可以是:contains第一关键词1、第一关键词2、第一关键词3。
所述匹配条件生成后存储于数据库可长期使用,后期还能够根据信息的更新增加或减少第一关键词的数量,并通过所述条件生成规则生成新的匹配条件。
建立模块120,用于获取历史用户的属性信息,根据所述用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量。
在本实施例中,分别获取历史用户及答疑者的属性信息建立资料库,根据历史用户和答疑者的属性信息分别建立至少一个第一标签和至少一个第二标签。所述第一标签包括历史用户的性别、地区、年龄、第二关键词(例如车险、财险等)等,所述第二标签包括答疑者的性别、地区、年龄、擅长领域(例如车险、财险等)等。并将所述第一标签与第二标签利用word2vec模型转换成对应的第一词向量与第二词向量。
接收模块130,用于接收客户端14的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词。
在本实施例中,电子装置1接收客户端14(例如手机或电脑)上传的答疑请求后,解析答疑请求得到答疑请求中的答疑请求语音信息,将答疑请求语音信息转换成文本信息,利用预先确定的计分算法计算出文本信息中每个词语的得分,将所有词语按照得分大小进行排序,根据排序结果从大到小依次选取预设数量(例如4个)的词语作为第二关键词(包含在文本信息中),第二关键词可以是与用户提出的问题关联性较大的专业性名词等,具体视问题类型而定。
其中,将语音信息转换成文本信息可通过动态时间归整模型(Dynamic TimeWarping,DTW)中实现。在其他实施例中,还可以是利用其他的语音识别模型得到文本信息,例如:BLSTM模型或LSTM模型。而DTW模型在对语音信息实施转换之前,通常都需要大量的训练样本进行训练,因此,在本实施例中,可预先对该DTW模型进行训练,具体的训练过程包括:预先采集预设数量的语音信息样本以及每个语音信息样本对应的文本信息样本,然后针对每个语音信息样本,将该语音信息样本输入到该预设的DTW模型中得到该语音信息样本对应的文本信息,在得到该语音信息样本对应的文本信息后,可将该文本信息与该语音信息对应的文本信息样本进行比对,并根据比对的结果对该DTW模型进行调整。经大量语音样本信息训练后的DTW模型可准确地将语音信息转换为对应的文本信息。
所述计分算法为:
Figure BDA0002231471590000101
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
具体地,将文本中的每个词语作为上述公式中的节点,对文本中的每个句子进行分词和词性标注处理,只保留指定词性的词语(例如:名词、动词、形容词)。构建候选关键词图G=(V,E),其中V由保留的指定词性的词语组成,然后采用共现关系(Co-Occurrence)构造任意两个词语之间的边,两个词语之间存在边,仅当这两个的词语在长度为K的窗口中共现,K表示窗口大小。根据上述公式,将节点之间边的权重的初值设为“1”,迭代传播权重计算各指定性词语的得分,将计算出的指定性词语的得分从大到小排序,可选取得分排前十的词语作为关键词。还可以利用投票的原理,将边作为词语之间的互相投票,经过不断迭代,每个词语的得票数会趋于稳定,然后对词语的得票数由大到小排序,可选取得票数排前六的词语作为关键词,将得到的关键词在原始文本中进行标记,若形成相邻词组则组合成多词关键词。
第一处理模块140,用于对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端14。
在本实施例中,所述对文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境(context)的根对象(root)中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式(expre ssion);及
根据所述表达式(expression)对所述存储于根对象(root)中的文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
OGNL是Object-Graph Navigation Language的缩写,它是一种功能强大的表达式语言,通过简单一致的表达式语法,可以采用相同的表达式存取对象的任意属性,调用对象的方法,遍历整个对象的结构图,实现字段类型转化等功能。
OGNL表达式语言在许多地方都有应用,例如:
1.作为GUI元素(textfield、combobox等)到模型对象的绑定语言;
2.数据库表到Swing的TableModel的数据源语言;
3.Web组件和后台Model对象的绑定语言,如:Web OGNL、Tapestry、Web Work、WebObjects;
4.作为Jakarata Commons BeanUtils或者JSTL的表达式语言的一个更具表达力的替代语言。
另外,通过java实现的功能也可以使用OGNL来完成,例如:列表映射和选择。对于开发者来说,使用OGNL可以用简洁的语法来完成对java对象的导航。通常来说:通过一个“路径”来完成对象信息的导航,这个“路径”可以是到java bean的某个属性,或者集合中的某个索引的对象等,而不是直接使用get或者set方法来完成。
基于OGNL语法的简洁性、使用的方便性,以及在性能方面的优势,通过使用OGNL的过滤和投影集合功能,将客户基本信息设置到context的root对象中,匹配条件作为expression表达式,通过调用Ognl.get Value(formula,context,context.getRoot())即可得到匹配结果。若所有第二关键词均与匹配条件中的第一关键词对应,则将与匹配条件对应的预设答案发送给客户端(手机或者电脑)。
第二处理模块150,用于若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
在本实施例中,若文本信息不满足匹配条件,为了判断用户此时的情绪状态,避免用户提出的问题得不到解决导致情绪波动,因此通过提取语音信息中包含的语音情绪类型,当判断语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有匹配值中的最大值作为最佳答疑者推荐给当前用户。
其中,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN)。
所述预设的匹配算法包括:
匹配值W=W1×P[X1,Y1]+W2×P[X2,Y2]+...+Wz×P[Xm,Yn],其中,Xm指第一标签,Yn指第二标签,
Figure BDA0002231471590000121
指第一标签与第二标签的匹配程度,Wz
Figure BDA0002231471590000131
的权重值,
Figure BDA0002231471590000132
通过曼哈顿距离(Manhattan Distance)对第一词向量及第二词向量进行计算得出,还可以通过闵可夫斯基距离(Minkowski Distance)进行计算,还可以通过余弦相似度(Cosine Similarity)进行计算。
在另一实施例中,该程序还包括准备模块:
用于在数据库中预先设定通用答复信息,当所述当前用户等待时间超过预设时间阈值时,将所述通用答复信息反馈至所述客户端14。
在本实施例中,为了避免用户传递的语音信息不清晰,导致电子装置1提取不到准确的第二关键词,从而搜索不到对应的答案,导致用户长时间处于等待状态,影响用户体验感,因此在数据库中预先设定至少一个通用答复信息,例如“请您重复一遍”等通用答复信息,当当前用户等待时间超过预设时间阈值(例如2s)时,将通用答复信息反馈至客户端14(例如手机或电脑)。
此外,本发明还提供一种智能答疑方法。参照图3所示,为本发明智能答疑方法的实施例的方法流程示意图。电子装置1的处理器12执行存储器11中存储的智能答疑程序10时实现智能答疑方法的如下步骤:
S110,在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于数据库。
在本实施例中,预先在数据库中设定至少一个第一关键词(包含在预设答案中),第一关键词可以是与用户提出的问题关联性较大的专业性名词等,具体视问题类型而定。根据设定的第一关键词,基于预先确定的匹配条件生成规则生成匹配条件,将生成的匹配条件与预设答案建立映射关系存储在数据库中。
其中,所述匹配条件生成规则为:
根据所述第一关键词及预设的数据范围生成匹配条件。
所述预设的数据范围通过以下关系式进行设置:contains(包含)、not cont ains(不包含)。
例如,匹配条件可以是:contains第一关键词1、第一关键词2、第一关键词3。
所述匹配条件生成后存储于数据库可长期使用,后期还能够根据信息的更新增加或减少第一关键词的数量,并通过所述条件生成规则生成新的匹配条件。
S120,获取历史用户的属性信息,根据所述用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量。
在本实施例中,分别获取历史用户及答疑者的属性信息建立资料库,根据历史用户和答疑者的属性信息分别建立至少一个第一标签和至少一个第二标签。所述第一标签包括历史用户的性别、地区、年龄、第二关键词(例如车险、财险等)等,所述第二标签包括答疑者的性别、地区、年龄、擅长领域(例如车险、财险等)等。并将所述第一标签与第二标签利用word2vec模型转换成对应的第一词向量与第二词向量。
S130,接收客户端14的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词。
在本实施例中,电子装置1接收客户端14(例如手机或电脑)上传的答疑请求后,解析答疑请求得到答疑请求中的答疑请求语音信息,将答疑请求语音信息转换成文本信息,利用预先确定的计分算法计算出文本信息中每个词语的得分,将所有词语按照得分大小进行排序,根据排序结果从大到小依次选取预设数量(例如4个)的词语作为第二关键词(包含在文本信息中),第二关键词可以是与用户提出的问题关联性较大的专业性名词等,具体视问题类型而定。
其中,将语音信息转换成文本信息可通过动态时间归整模型(Dynamic TimeWarping,DTW)中实现。在其他实施例中,还可以是利用其他的语音识别模型得到文本信息,例如:BLSTM模型或LSTM模型。而DTW模型在对语音信息实施转换之前,通常都需要大量的训练样本进行训练,因此,在本实施例中,可预先对该DTW模型进行训练,具体的训练过程包括:预先采集预设数量的语音信息样本以及每个语音信息样本对应的文本信息样本,然后针对每个语音信息样本,将该语音信息样本输入到该预设的DTW模型中得到该语音信息样本对应的文本信息,在得到该语音信息样本对应的文本信息后,可将该文本信息与该语音信息对应的文本信息样本进行比对,并根据比对的结果对该DTW模型进行调整。经大量语音样本信息训练后的DTW模型可准确地将语音信息转换为对应的文本信息。
所述计分算法为:
Figure BDA0002231471590000151
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
具体地,将文本中的每个词语作为上述公式中的节点,对文本中的每个句子进行分词和词性标注处理,只保留指定词性的词语(例如:名词、动词、形容词)。构建候选关键词图G=(V,E),其中V由保留的指定词性的词语组成,然后采用共现关系(Co-Occurrence)构造任意两个词语之间的边,两个词语之间存在边,仅当这两个的词语在长度为K的窗口中共现,K表示窗口大小。根据上述公式,将节点之间边的权重的初值设为“1”,迭代传播权重计算各指定性词语的得分,将计算出的指定性词语的得分从大到小排序,可选取得分排前十的词语作为关键词。还可以利用投票的原理,将边作为词语之间的互相投票,经过不断迭代,每个词语的得票数会趋于稳定,然后对词语的得票数由大到小排序,可选取得票数排前六的词语作为关键词,将得到的关键词在原始文本中进行标记,若形成相邻词组则组合成多词关键词。
S140,对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端14。
在本实施例中,所述对文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境(context)的根对象(root)中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式(expre ssion);及
根据所述表达式(expression)对所述存储于根对象(root)中的文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
OGNL是Object-Graph Navigation Language的缩写,它是一种功能强大的表达式语言,通过简单一致的表达式语法,可以采用相同的表达式存取对象的任意属性,调用对象的方法,遍历整个对象的结构图,实现字段类型转化等功能。
OGNL表达式语言在许多地方都有应用,例如:
1.作为GUI元素(textfield、combobox等)到模型对象的绑定语言;
2.数据库表到Swing的TableModel的数据源语言;
3.Web组件和后台Model对象的绑定语言,如:Web OGNL、Tapestry、Web Work、WebObjects;
4.作为Jakarata Commons BeanUtils或者JSTL的表达式语言的一个更具表达力的替代语言。
另外,通过java实现的功能也可以使用OGNL来完成,例如:列表映射和选择。对于开发者来说,使用OGNL可以用简洁的语法来完成对java对象的导航。通常来说:通过一个“路径”来完成对象信息的导航,这个“路径”可以是到java bean的某个属性,或者集合中的某个索引的对象等,而不是直接使用get或者set方法来完成。
基于OGNL语法的简洁性、使用的方便性,以及在性能方面的优势,通过使用OGNL的过滤和投影集合功能,将客户基本信息设置到context的root对象中,匹配条件作为expression表达式,通过调用Ognl.get Value(formula,context,context.getRoot())即可得到匹配结果。若所有第二关键词均与匹配条件中的第一关键词对应,则将与匹配条件对应的预设答案发送给客户端(手机或者电脑)。
S150,若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
在本实施例中,若文本信息不满足匹配条件,为了判断用户此时的情绪状态,避免用户提出的问题得不到解决导致情绪波动,因此通过提取语音信息中包含的语音情绪类型,当判断语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有匹配值中的最大值作为最佳答疑者推荐给当前用户。
其中,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
所述情绪识别模型为深度神经网络模型(Deep Neural Networks,DNN)。
所述预设的匹配算法包括:
匹配值W=W1×P[X1,Y1]+W2×P[X2,Y2]+...+Wz×P[Xm,Yn],其中,Xm指第一标签,Yn指第二标签,
Figure BDA0002231471590000171
指第一标签与第二标签的匹配程度,Wz
Figure BDA0002231471590000172
的权重值,
Figure BDA0002231471590000173
通过曼哈顿距离(Manhattan Distance)对第一词向量及第二词向量进行计算得出,还可以通过闵可夫斯基距离(Minkowski Distance)进行计算,还可以通过余弦相似度(Cosine Similarity)进行计算。
在另一实施例中,该方法还包括以下步骤:
用于在数据库中预先设定通用答复信息,当所述当前用户等待时间超过预设时间阈值时,将所述通用答复信息反馈至所述客户端14。
在本实施例中,为了避免用户传递的语音信息不清晰,导致电子装置1提取不到准确的第二关键词,从而搜索不到对应的答案,导致用户长时间处于等待状态,影响用户体验感,因此在数据库中预先设定至少一个通用答复信息,例如“请您重复一遍”等通用答复信息,当当前用户等待时间超过预设时间阈值(例如2s)时,将通用答复信息反馈至客户端14(例如手机或电脑)。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等中的任意一种或者几种的任意组合。计算机可读存储介质中包括智能答疑程序10,本发明之计算机可读存储介质的具体实施方式与上述智能答疑方法以及电子装置1的具体实施方式大致相同,在此不再赘述。
需要说明的是,上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序日仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术本实施例本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,电子装置,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种智能答疑方法,应用于电子装置,其特征在于,该方法包括:
设置步骤:在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于所述数据库;
建立步骤:获取历史用户的属性信息,根据所述历史用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量;
接收步骤:接收客户端的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从小到大进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词;
第一处理步骤:对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端;及
第二处理步骤:若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
2.如权利要求1所述的智能答疑方法,其特征在于,所述计分算法为:
Figure FDA0002231471580000011
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
3.如权利要求1所述的智能答疑方法,其特征在于,所述对所述文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境的根对象中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式;及
根据所述表达式对存储于根对象中的所述文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
4.如权利要求1所述的智能答疑方法,其特征在于,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
5.如权利要求1-4任一项所述的智能答疑方法,其特征在于,该方法还包括准备步骤:
在数据库中预先设定通用答复信息,当所述当前用户等待时间超过预设时间阈值时,将所述通用答复信息反馈至所述客户端。
6.一种电子装置,其特征在于,所述电子装置包括存储器和处理器,所述存储器上存储有智能答疑程序,所述智能答疑程序被所述处理器执行时实现如下步骤:
设置步骤:在数据库中设定至少一个第一关键词,根据所述第一关键词及预先确定的匹配条件生成规则生成匹配条件,建立所述匹配条件与预设答案之间的映射关系,并将所述匹配条件与映射关系存储于所述数据库;
建立步骤:获取历史用户的属性信息,根据所述历史用户的属性信息建立至少一个第一标签,获取答疑者的属性信息,根据所述答疑者的属性信息建立至少一个第二标签,将所述第一标签与第二标签存储于所述数据库,并将所述第一标签与第二标签转换成对应的第一词向量与第二词向量;
接收步骤:接收客户端的当前用户发送的答疑请求,解析所述答疑请求得到答疑请求语音信息,将所述答疑请求语音信息转换成文本信息存储至一个消息队列,利用预先确定的计分算法计算出所述文本信息中每个词语的得分,将所有所述词语按照得分从大到小进行排序,根据排序结果从所述文本信息中依次选取预设数量的词语作为第二关键词;
第一处理步骤:对所述文本信息及匹配条件进行匹配分析,判断所述文本信息中的每个第二关键词在所述匹配条件中是否存在对应的第一关键词,若存在则表明所述文本信息满足所述匹配条件,则从所述数据库获取所述匹配条件对应的预设答案发送给所述客户端;及
第二处理步骤:若所述文本信息不满足所述匹配条件,则提取所述语音信息中包含的语音情绪类型,当判断所述语音情绪类型为不满时,利用预设的匹配算法基于所述第一词向量与第二词向量计算所述当前用户与每个答疑者之间的匹配值,选取所有所述匹配值中的最大值作为最佳答疑者推荐给所述当前用户。
7.如权利要求6所述的电子装置,其特征在于,所述计分算法为:
Figure FDA0002231471580000031
其中,Vi、Vj和Vk表示从所述文本信息中提取的词语节点,S(Vi)、S(Vj)分别表示词语节点Vi、Vj的得分,Wji表示Vi和Vj两个词语节点之间边的权重,Wji表示Vj和Vk两个词语节点之间边的权重,In(Vi)表示指向词语节点Vi的节点集合,Out(Vj)表示词语节点Vj指向的节点集合,d表示阻尼系数。
8.如权利要求6所述的电子装置,其特征在于,所述对所述文本信息及匹配条件进行匹配分析是基于OGNL表达式语言实现的,包括:
将所述文本信息存储在基于OGNL创建的上下文环境的根对象中;
利用OGNL对所述匹配条件进行描述生成所述匹配条件的表达式;及
根据所述表达式对存储于根对象中的所述文本信息进行遍历查询,判断所述文本信息与表达式匹配是否一致,根据匹配结果输出相应的预设答案。
9.如权利要求6-8任一项所述的电子装置,其特征在于,所述语音情绪类型的提取步骤包括:
对所述语音信息进行解码得到音频信号,从所述音频信号中提取低阶音频特征;
从所述低阶音频特征中提取动态回归系数,得到所述语音信息的动态音频特征;
利用统计函数从所述低阶音频特征及动态音频特征中提取音频信号的高阶音频特征;
利用特征筛选算法从所述高阶音频特征中筛选出高阶音频特征子集作为音频信号的语音特征,同时作为所述语音信息的语音特征;及
将所述语音特征输入预先训练好的情绪识别模型,输出对应的语音情绪的类别。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能答疑程序,所述智能答疑程序可被一个或者多个处理器执行,以实现如权利要求1-5中任一项所述的智能答疑方法的步骤。
CN201910969073.4A 2019-10-12 2019-10-12 智能答疑方法、电子装置及存储介质 Pending CN110874394A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910969073.4A CN110874394A (zh) 2019-10-12 2019-10-12 智能答疑方法、电子装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910969073.4A CN110874394A (zh) 2019-10-12 2019-10-12 智能答疑方法、电子装置及存储介质

Publications (1)

Publication Number Publication Date
CN110874394A true CN110874394A (zh) 2020-03-10

Family

ID=69717768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910969073.4A Pending CN110874394A (zh) 2019-10-12 2019-10-12 智能答疑方法、电子装置及存储介质

Country Status (1)

Country Link
CN (1) CN110874394A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102739557A (zh) * 2011-04-08 2012-10-17 腾讯科技(深圳)有限公司 客户服务中的用户分流方法和装置
WO2013170587A1 (zh) * 2012-05-14 2013-11-21 华为技术有限公司 一种多媒体问答系统及方法
US20150154721A1 (en) * 2013-12-02 2015-06-04 Talksession, Inc. System, apparatus and method for user to obtain service from professional
CN107688667A (zh) * 2017-09-30 2018-02-13 平安科技(深圳)有限公司 智能机器人客服方法、电子装置及计算机可读存储介质
CN108509477A (zh) * 2017-09-30 2018-09-07 平安科技(深圳)有限公司 语义识别方法、电子装置及计算机可读存储介质
CN109727598A (zh) * 2018-12-28 2019-05-07 浙江省公众信息产业有限公司 大噪音语境下的意图识别方法
CN109887525A (zh) * 2019-01-04 2019-06-14 平安科技(深圳)有限公司 智能客服方法、装置及计算机可读存储介质
CN110322899A (zh) * 2019-06-18 2019-10-11 平安银行股份有限公司 用户智能分类方法、服务器及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102739557A (zh) * 2011-04-08 2012-10-17 腾讯科技(深圳)有限公司 客户服务中的用户分流方法和装置
WO2013170587A1 (zh) * 2012-05-14 2013-11-21 华为技术有限公司 一种多媒体问答系统及方法
US20150154721A1 (en) * 2013-12-02 2015-06-04 Talksession, Inc. System, apparatus and method for user to obtain service from professional
CN107688667A (zh) * 2017-09-30 2018-02-13 平安科技(深圳)有限公司 智能机器人客服方法、电子装置及计算机可读存储介质
CN108509477A (zh) * 2017-09-30 2018-09-07 平安科技(深圳)有限公司 语义识别方法、电子装置及计算机可读存储介质
CN109727598A (zh) * 2018-12-28 2019-05-07 浙江省公众信息产业有限公司 大噪音语境下的意图识别方法
CN109887525A (zh) * 2019-01-04 2019-06-14 平安科技(深圳)有限公司 智能客服方法、装置及计算机可读存储介质
CN110322899A (zh) * 2019-06-18 2019-10-11 平安银行股份有限公司 用户智能分类方法、服务器及存储介质

Similar Documents

Publication Publication Date Title
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
CN111159346A (zh) 基于意图识别的智能答疑方法、服务器及存储介质
WO2019153613A1 (zh) 聊天应答方法、电子装置及存储介质
KR102288249B1 (ko) 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체
CN109284399B (zh) 相似度预测模型训练方法、设备及计算机可读存储介质
CN108038208B (zh) 上下文信息识别模型的训练方法、装置和存储介质
CN110334179B (zh) 问答处理方法、装置、计算机设备和存储介质
CN109033156B (zh) 一种信息处理方法、装置及终端
CN109840255B (zh) 答复文本生成方法、装置、设备及存储介质
CN110795542A (zh) 对话方法及相关装置、设备
CN109710739B (zh) 一种信息处理方法及装置、存储介质
US20160140389A1 (en) Information extraction supporting apparatus and method
US10740401B2 (en) System for the automated semantic analysis processing of query strings
CN111143539B (zh) 基于知识图谱的教学领域问答方法
CN110990533A (zh) 确定查询文本所对应标准文本的方法及装置
JP7058574B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112287085B (zh) 语义匹配方法、系统、设备及存储介质
CN108776677B (zh) 平行语句库的创建方法、设备及计算机可读存储介质
CN111753522A (zh) 事件抽取方法、装置、设备以及计算机可读存储介质
CN114399396A (zh) 保险产品推荐方法、装置、计算机设备及存储介质
CN111460816B (zh) 基于语义特征的数据检索方法、电子装置及存储介质
CN110674276A (zh) 机器人自学习方法、机器人终端、装置及可读存储介质
CN113220854A (zh) 机器阅读理解的智能对话方法及装置
CN110929014B (zh) 信息处理方法、装置、电子设备及存储介质
CN110413745B (zh) 选择代表文本的方法、确定标准问题的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200310