CN115186092A - 线上交互处理方法和装置、存储介质和程序产品 - Google Patents

线上交互处理方法和装置、存储介质和程序产品 Download PDF

Info

Publication number
CN115186092A
CN115186092A CN202210810625.9A CN202210810625A CN115186092A CN 115186092 A CN115186092 A CN 115186092A CN 202210810625 A CN202210810625 A CN 202210810625A CN 115186092 A CN115186092 A CN 115186092A
Authority
CN
China
Prior art keywords
message
weight
information
quadruple
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210810625.9A
Other languages
English (en)
Other versions
CN115186092B (zh
Inventor
陈开江
王杰
蔡健宇
陈佳俊
冯扬
张露露
叶杰平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seashell Housing Beijing Technology Co Ltd
Original Assignee
Seashell Housing Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seashell Housing Beijing Technology Co Ltd filed Critical Seashell Housing Beijing Technology Co Ltd
Priority to CN202210810625.9A priority Critical patent/CN115186092B/zh
Publication of CN115186092A publication Critical patent/CN115186092A/zh
Application granted granted Critical
Publication of CN115186092B publication Critical patent/CN115186092B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • G06Q30/016After-sales
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

本公开实施例公开了一种线上信息交互处理方法和装置、存储介质和程序产品,其中,该方法包括:响应于接收到第一用户发送的第一消息,确定第一消息对应的四元组信息,该四元组信息为预设四元组中的元素实例化后得到的信息,预设四元组中的元素包括:话术动作,头实体,尾实体,头实体与尾实体之间的关系;基于第一消息对应的四元组信息和第一消息的上文消息对应的四元组信息,预测本次对话中下一消息对应的四元组信息;向第二用户推送下一消息对应的四元组信息,以便第二用户基于下一消息对应的四元组信息生成第一消息的回复消息。通过上述线上信息交互处理方法,可以提升服务人员与客户之间的沟通效率并提升客户的用户体验。

Description

线上交互处理方法和装置、存储介质和程序产品
技术领域
本公开涉及互联网技术,尤其是一种线上交互处理方法和装置、存储介质和程序产品。
背景技术
随着互联网技术的发展,产品供应商、服务提供商等通过互联网(包括浏览器,应用APP等)为客户提供产品、项目、服务咨询等线上服务的情况越来越普遍。通过为客户提供产品、项目、服务咨询等线上服务,使客户可以充分了解感兴趣的对象(产品、项目、服务咨询等)的详细情况。
在服务人员针对客户的线上服务场景中,需要服务人员能够了解客户需求,利用服务领域内的专业知识,为客户提供有效的线上服务。
发明内容
本公开实施例所要解决的一个技术问题是:提供一种线上信息交互处理方法和装置、存储介质和程序产品,用以,提升服务人员与客户之间的沟通效率并且提升客户的用户体验。
根据本公开实施例的一个方面,提供一种线上信息交互处理方法,包括:
响应于接收到第一用户发送的第一消息,确定所述第一消息对应的四元组信息;其中,所述四元组信息为预设四元组中的元素实例化后得到的信息,所述预设四元组中的元素包括:话术动作,头实体,尾实体,所述头实体与所述尾实体之间的关系;
基于所述第一消息对应的四元组信息和所述第一消息的上文消息对应的四元组信息,预测本次对话中下一消息对应的四元组信息;其中,所述上文消息包括:本次对话中时序位于所述第一消息之前、且基于时序关系排列的至少一条历史消息;
向第二用户推送所述下一消息对应的四元组信息,以便所述第二用户基于所述下一消息对应的四元组信息生成所述第一消息的回复消息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述确定所述第一消息对应的四元组信息,包括:
基于所述第一消息和所述上文消息,确定所述第一消息对应的四元组信息。
在本公开线上信息交互处理方法的另一个实施例中,所述基于所述第一消息和所述上文消息,确定所述第一消息对应的四元组信息,包括:
基于预设消息窗口大小L,从所述上文消息中选取所述第一消息的前L条历史消息;其中,所述前L条历史消息为所述上文消息中的最后L条历史消息,L为大于0的整数;
采用预设注意力机制,确定所述前L条历史消息中的各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息、所述各条历史消息及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息;
基于所述第一权重消息,确定所述第一权重消息对应的四元组信息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述采用预设注意力机制,确定所述前L条历史消息中的各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息、所述各条历史消息及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息,包括:
基于消息内部词级别的注意力机制,确定所述第一消息中各词的注意力权重值;分别基于所述第一消息中各词的注意力权重值,对所述第一消息中对应的词的词向量进行加权处理,得到所述第一消息对应的第一中间权重消息;
分别针对所述前L条历史消息中的各条历史消息:基于消息外部词级别的注意力机制,确定所述历史消息中各词对所述第一消息的注意力权重值;分别基于所述历史消息中各词对所述第一消息的注意力权重值,对所述历史消息中对应的词的词向量进行加权处理,得到所述历史消息对应的第一外部权重消息;
基于消息级别的注意力机制,确定所述各条历史消息对所述第一消息的注意力权重值;分别基于所述各条历史消息对所述第一消息的注意力权重值,对对应的所述历史消息对应的第一外部权重消息进行加权处理,得到所述各条历史消息对应的第二外部权重消息;
基于预设权重值,对所述前L条历史消息对应的第二外部权重消息进行加权处理,得到所述前L条历史消息对应的第三外部权重消息;
基于所述第一消息对应的第一中间权重消息和所述前L条历史消息对应的第三外部权重消息,得到所述第一消息对应的第二中间权重消息;
基于任务级别的注意力机制,得到所述各条历史消息对应的第二中间权重消息的注意力权重值;分别基于所述各条历史消息对应的第二中间权重消息的注意力权重值,对对应的所述历史消息进行加权处理,得到所述各条历史消息对应的第四外部权重消息;
基于所述第一消息对应的第二中间权重消息和所述前L条历史消息对应的第四外部权重消息,得到所述第一消息对应的第一权重消息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述基于所述第一权重消息,确定所述第一权重消息对应的四元组信息,包括:
基于所述第一权重消息,利用预先训练得到的元素分类模型,对所述第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系分别进行分类,得到话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果;
基于所述话术动作分类结果、所述头实体分类结果、所述尾实体分类结果、以及所述关系分类结果,利用条件随机场模型,确定所述第一权重消息对应的四元组信息;其中,基于所述条件随机场模型确定的四元组信息对应的函数值最大,所述条件随机场模型用于确定所述四元组中的各元素分别被分类为各分类结果时的分数,以及所述头实体分类结果、所述尾实体分类结果和所述关系分类结果中的任意两个分类结果之间的相关性分数之和。
可选地,在本公开线上信息交互处理方法的另一个实施例中,还包括训练得到所述元素分类模型的步骤:
获取至少一组训练样本,所述训练样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,所述消息序列包括基于时序关系排序的多条样本消息,所述最后一条样本消息标注有所述四元组的第一实例化标注信息;
分别针对所述至少一组训练样本中的各组训练样本,将所述第一样本权重消息输入待训练元素分类模型,经所述待训练元素分类模型输出所述最后一条样本消息对应的第一四元组预测信息;
基于所述第一实例化标注信息与所述第一四元组预测信息,对所述待训练元素分类模型进行迭代训练,直至达到第一预设训练完成条件,得到预训练元素分类模型或者所述元素分类模型;其中,所述预训练元素分类模型用于经过进一步训练得到所述元素分类模型。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述得到预训练元素分类模型之后,还包括:
获取至少一组测试样本,所述测试样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,所述消息序列包括基于时序关系排序的多条样本消息;
分别针对所述至少一组测试样本中的各组测试样本,将所述测试样本中的第一样本权重消息输入所述预训练元素分类模型,经所述预训练元素分类模型输出所述测试样本中最后一条样本消息对应的第二四元组预测信息;
响应于接收到对所述第二四元组预测信息的修正操作,获取修正后的第二四元组预测信息作为对应的测试样本中最后一条样本消息的第二实例化标注信息,基于所述对应的测试样本和所述对应的测试样本中最后一条样本消息的第二实例化标注信息,得到至少一组新增训练样本;
分别针对所述至少一组新增训练样本中的各组新增训练样本,将所述新增训练样本中的第一样本权重消息输入所述预训练元素分类模型,经所述预训练元素分类模型输出所述新增训练样本中最后一条样本消息对应的第三四元组预测信息;
基于所述第二实例化标注信息与所述第三四元组预测信息,对所述预训练元素分类模型进行迭代训练,直至达到第二预设训练完成条件,得到所述元素分类模型。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述基于预设消息窗口大小L,从所述上文消息中选取所述第一消息的前L条历史消息之后,还包括:
通过知识抽取模型中的输入层,分别获取所述第一消息和所述前L条历史消息中各条历史消息的词序列;
所述采用预设注意力机制,确定所述前L条历史消息中的各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息、所述各条历史消息及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息,包括:通过所述知识抽取模型中的编码层,基于所述第一消息的词序列和所述各条历史消息的词序列,确定所述各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息的词序列、所述各条历史消息的词序列及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息;
所述基于所述第一权重消息,确定所述第一权重消息对应的四元组信息,包括:通过所述知识抽取模型中的解码层,基于所述第一权重消息,确定所述第一权重消息对应的四元组信息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述通过所述知识抽取模型中的编码层,基于所述第一消息的词序列和所述各条历史消息的词序列,确定所述各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息的词序列、所述各条历史消息的词序列及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息,包括:
利用所述编码层中的编码器,分别对所述第一消息的词序列和所述各条历史消息的词序列进行词到向量转换,得到所述第一消息对应的向量序列和所述各条历史消息对应的向量序列;
基于词级别的注意力机制,分别确定所述第一消息对应的向量序列中各词向量的注意力权重值,并基于所述第一消息对应的向量序列中各词向量的注意力权重值,对所述第一消息对应的向量序列中各词向量进行加权处理,得到所述第一消息的加权结果;
基于内容级别的注意力机制对所述第一消息的加权结果进行处理,得到所述第一消息对应的第三中间权重消息;
分别针对所述各条历史消息:基于词级别的注意力机制,分别确定所述历史消息对应的向量序列中各词向量的注意力权重值,并基于所述历史消息对应的向量序列中各词向量的注意力权重值,对所述历史消息对应的向量序列中各词向量进行加权处理,得到所述历史消息的加权结果;基于内容级别的注意力机制对所述历史消息的加权结果进行处理,得到所述历史消息对应的第三中间权重消息;
基于内容级别的注意力机制,分别确定所述各条历史消息对应的第三中间权重消息的注意力权重值,并基于所述各条历史消息对应的第三中间权重消息的注意力权重值对对应的所述各条历史消息对应的第三中间权重消息进行加权处理,得到历史权重消息;
基于所述第一消息对应的第三中间权重消息,确定所述第一消息对应的第三中间权重消息的权重值;
基于所述第一消息对应的第三中间权重消息、所述第一消息对应的第三中间权重消息的权重值、所述历史权重消息和所述历史权重消息的权重值,得到所述第一消息对应的第一权重消息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述通过所述知识抽取模型中的解码层,基于所述第一权重消息,确定所述第一权重消息对应的四元组信息,包括:
通过所述解码层,基于所述第一权重消息,分别预测所述第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系的分类得分;
基于所述第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系的分类得分,确定话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果,作为所述预设四元组中的元素实例化的信息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,还包括训练得到所述知识抽取模型的步骤:
获取至少一组训练样本,所述训练样本包括:一次对话中的消息序列,所述消息序列包括基于时序关系排序的多条样本消息,所述最后一条样本消息标注有所述四元组的第一实例化标注信息;
分别针对所述至少一组训练样本中的各组训练样本,将所述训练样本输入待训练知识抽取模型,经所述待训练知识抽取模型输出所述最后一条样本消息对应的第三四元组预测信息;
基于所述第一实例化标注信息与所述第三四元组预测信息,对所述待训练知识抽取模型进行迭代训练,直至达到第三预设训练完成条件,得到预训练知识抽取模型或者所述知识抽取模型;其中,所述预训练知识抽取模型用于经过进一步训练得到所述知识抽取模型。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述得到预训练知识抽取模型之后,还包括:
获取至少一组测试样本,所述测试样本包括:一次对话中的消息序列,所述消息序列包括基于时序关系排序的多条样本消息;
分别针对所述至少一组测试样本中的各组测试样本,将所述测试样本输入所述预训练知识抽取模型,经所述预训练知识抽取模型输出所述测试样本中最后一条样本消息对应的第四四元组预测信息;
响应于接收到对所述第四四元组预测信息的修正操作,获取修正后的第四四元组预测信息作为对应的测试样本中最后一条样本消息的第四实例化标注信息,基于所述对应的测试样本和所述对应的测试样本中最后一条样本消息的第四实例化标注信息,得到至少一组新增训练样本;
分别针对所述至少一组新增训练样本中的各组新增训练样本,将所述新增训练样本输入所述预训练知识抽取模型,经所述预训练知识抽取模型输出所述新增训练样本中最后一条样本消息对应的第五四元组预测信息;
基于所述第四实例化标注信息与所述第五四元组预测信息,对所述预训练知识抽取模型进行迭代训练,直至达到第四预设训练完成条件,得到所述知识抽取模型。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述下一消息对应的四元组信息包括至少一个四元组信息;
所述向第二用户推送所述下一消息对应的四元组信息之后,还包括:
接收所述第二用户基于所述至少一个四元组信息中的一个四元组信息发送的所述回复消息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述下一消息对应的四元组信息包括至少一个四元组信息;
所述向第二用户推送所述下一消息对应的四元组信息之后,还包括:
响应于接收到所述第二用户从所述至少一个四元组信息中选取的目标四元组信息、以及针对所述目标四元组信息中的尾实体输入的属性值,基于预设话术生成策略、所述目标四元组信息和所述针对所述目标四元组信息中的尾实体输入的属性值,生成所述第一消息的回复消息。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述确定所述第一消息对应的四元组信息之后,还包括:
根据预先设置的知识图谱的数据模型、所述第一消息对应的四元组信息中的话术动作实例化信息、头实体实例化信息和尾实体实例化信息,对所述第一消息的上文消息对应的时序知识图谱进行更新,得到所述第一消息对应的时序知识图谱;其中,所述数据模型中的节点用于表示实体,所述节点表示的实体包括头实体和尾实体,所述节点之间的连接关系用于表示所述头实体与所述尾实体之间的关系;
向第二用户推送所述第一消息对应的时序知识图谱。
可选地,在本公开线上信息交互处理方法的另一个实施例中,所述头实体包括以下至少一项:客户资质类实体、地理概念类实体;所述尾实体包括:属性类实体。
可选地,在本公开线上信息交互处理方法的另一个实施例中,还包括:
响应于所述本次对话结束,获取所述本次对话对应的第一知识图谱向量;
获取所述第一知识图谱向量与预设第一知识图谱向量集合中各参考知识图谱向量之间的相似性;其中,所述第一知识图谱向量集合包括至少一个参考知识图谱向量,所述参考知识图谱向量为预设高水平对话对应的知识图谱向量;
获取与所述第一知识图谱向量之间的相似性最小的预设数量个参考知识图谱向量;
获取所述预设数量个参考知识图谱向量对应的对话和知识图谱;
向所述第二用户推送所述预设数量个参考知识图谱向量对应的对话和知识图谱。
可选地,在本公开线上信息交互处理方法的另一个实施例中,利用预设对比学习目标函数,获取所述第一知识图谱向量与预设知识图谱向量集合中各参考知识图谱向量之间的相似性,并获取与所述第一知识图谱向量之间的相似性最小的预设数量个参考知识图谱向量;
所述方法还包括训练得到所述对比学习目标函数的步骤:
获取第二知识图谱向量集合和第三知识图谱向量集合;其中,所述第二知识图谱向量集合包括至少一个第二知识图谱向量,所述第二知识图谱向量为预设高水平对话对应的知识图谱向量;所述第三知识图谱向量集合包括至少一个第三知识图谱向量,所述第三知识图谱向量为预设低水平对话对应的知识图谱向量;
利用所述第二知识图谱向量集合和所述第三知识图谱向量集合对待训练对比学习目标函数进行训练,以使所述第二知识图谱向量集合中任意两个第二知识图谱向量之间的相似性最大化、所述第三知识图谱向量集合中任意两个第三知识图谱向量之间的相似性最大化、所述第二知识图谱向量集合中任意一个第二知识图谱向量与所述第三知识图谱向量集合中任意一个第三知识图谱向量之间的相似性最小化。
本公开实施例的又一个方面,提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现本公开上述任一实施例所述的方法。
本公开实施例的再一个方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时,实现本公开上述任一实施例所述的方法。
本公开实施例的再一个方面,提供一种计算机程序产品,包括计算机程序指令,该计算机程序指令被处理器执行时实现本公开上述任一实施例所述的方法。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1为本公开线上交互处理方法一个实施例的流程图。
图2为本公开线上交互处理方法另一个实施例的流程图。
图3为本公开线上交互处理方法又一个实施例的流程图。
图4为本公开实施例中基于分层注意力模型获取第一消息对应的第一权重消息的一个示意图。
图5为本公开实施例中基于该第一权重消息确定对应的四元组信息的一个流程图。
图6为本公开线上交互处理方法再一个实施例的流程图。
图7为本公开实施例中基于知识抽取模型确定对应的四元组信息的一个示意图。
图8为本公开线上交互处理方法还一个实施例的流程图。
图9为本公开实施例中时序知识图谱的一个示例图。
图10为本公开实施例中知识图谱的数据模型的一个示例图。
图11为本公开线上交互处理方法还一个实施例的流程图。
图12为本公开电子设备实施例的一个结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1为本公开线上交互处理方法一个实施例的流程图。如图1所示,该实施例的线上交互处理方法包括:
102,响应于接收到第一用户发送的第一消息,确定第一消息对应的四元组信息。
其中,所述四元组信息为预设四元组中的元素实例化后得到的信息,包括预设四元组中各元素的实例化信息,该预设四元组中的元素包括:话术动作,头实体,尾实体,头实体与尾实体之间的关系,预设四元组可以表示为一个四元组集合(ai,si,pi,oi)。其中,ai表示话术动作,si表示头实体(subject,对应于主语),oi表示尾实体(object,对应于宾语),pi表示头实体与尾实体之间的关系(predicate,对应于谓语)。
本公开实施例中,话术动作又可以称为对话动作,用于用户表示说话方式,本公开实施例中,话术动作的具体取值范围可以预先设定,并可以根据需求修改,例如可以包括但不限于:询问内容,回答内容,确认事实,陈述,礼节动作,已知晓,等等。
本公开实施例中,头实体、尾实体、头实体与尾实体之间的关系元素,与本公开实施例中知识图谱的数据模型(schema)中标签的定义一致,本公开实施例中知识图谱的数据模型,在下文详细介绍。
本公开实施例中,元素实例化即对元素赋值为其预设取值范围内的一个具体取值,则四元组信息包括话术动作实例化信息、头实体实例化信息、尾实体实例化信息、头实体与尾实体之间的关系实例化信息。
由此,将每一条消息解析为四元组(ai,si,pi,oi),考虑了各元素的实例化信息之间的相关性,例如头实体实例化信息与关系实例化信息并非独立、而是相关的,融合了话术动作和对话内容(即说什么,包括主语、谓语、宾语)、以及融合了对话内容中的主语、谓语、宾语,从而可以针对知识的关联性进行有效建模与分析,实现对用户发送消息的准确理解和解析。
104,基于第一消息对应的四元组信息和该第一消息的上文消息对应的四元组信息,预测本次对话中下一消息对应的四元组信息。
其中,所述上文消息包括:本次对话中时序位于第一消息之前、且基于时序关系排列的至少一条历史消息。
106,向第二用户推送下一消息对应的四元组信息,以便第二用户基于该下一消息对应的四元组信息生成第一消息的回复消息。
基于本实施例,在接收到第一用户(例如客户)发送的第一消息时,确定第一消息对应的四元组信息,该四元组信息为预设四元组中的元素(包括话术动作、头实体、尾实体、头实体与尾实体之间的关系)实例化后得到的信息,然后,基于第一消息对应的四元组信息和该第一消息的上文消息对应的四元组信息,预测本次对话中下一消息对应的四元组信息,进而,向第二用户(例如服务人员)推送下一消息对应的四元组信息,以便第二用户基于该下一消息对应的四元组信息生成第一消息的回复消息。由此,在服务人员针对客户的线上服务场景中,可以针对客户发送的第一消息,通过确定第一消息对应的四元组信息,来预测下一消息对应的四元组信息并推送给服务人员,以对服务人员在线服务的交流沟通策略进行提示,从而提升服务人员与客户之间的沟通效率并且提升客户的用户体验。
本公开实施例可以应用于互联网(包括浏览器、APP等)为客户提供产品、项目、服务咨询等线上服务的即时通讯(IM)场景,例如,在房产交易领域,服务人员与客户通过贝壳APP进行聊天的场景。
可选地,在本公开实施例的一种可能的实现方式中,上述第一消息对应的四元组信息可以包括至少一个四元组信息。也就是说,本公开实施例中,确定出的第一消息对应的四元组信息可以是一个,也可以是多个。
由此,基于本实施例,可以全面确定第一消息对应的四元组信息,从而可以分别基于第一消息对应的每个四元组信息和该第一消息的上文消息对应的四元组信息,预测出本次对话中下一消息对应的四元组信息,则可以预测出下一消息对应的至少一个四元组信息,从而实现对下一消息对应的至少一个四元组信息的全面预测,以便第二用户生成对第一消息全面的回复消息,从而提升服务人员与客户之间的沟通效率并且提升客户的用户体验。
可选地,在本公开实施例的一种可能的实现方式中,在步骤102中,可以在接收到第一用户发送的第一消息时,基于第一消息和该第一消息的上文消息,确定该第一消息对应的四元组信息。
基于本实施例,考虑了同一消息内部以及不同消息之间的相关性,例如,当前消息的四元组信息与前若干条消息的四元组信息也并非独立、而是相关的,同时基于第一消息和该第一消息的上文消息确定该第一消息对应的四元组信息,有助于提高第一消息对应的四元组信息的准确性,从而有助于准确预测本次对话中下一消息对应的四元组信息,提高下一消息对应的四元组信息的预测结果的准确性,更准确的对服务人员在线服务的交流沟通策略进行提示,从而进一步提升服务人员的服务效果。
图2为本公开线上交互处理方法另一个实施例的流程图。如图2所示,可以通过如下方式,基于第一消息和该第一消息的上文消息,确定该第一消息对应的四元组信息:
202,基于预设消息窗口大小L,从第一消息的上文消息中选取该第一消息的前L条历史消息。
其中,前L条历史消息为上文消息中的最后L条历史消息,L为大于0的整数,L的取值可以根据实际需求设置,并可以被更新。例如,L的取值范围例如可以为2-10中的任一整数,本公开实施例对L的取值不做限制。
204,采用预设注意力机制,确定上述前L条历史消息中的各条历史消息对第一消息的注意力权重值,并基于第一消息、上述前L条历史消息和各条历史消息对第一消息的注意力权重值,获取该第一消息对应的第一权重消息。
206,基于该第一权重消息,确定该第一权重消息对应的四元组信息。
基于本实施例,可以针对每次接收到的第一消息,采用预设注意力机制,考虑位于该第一消息和该第一消息之前的前L条历史消息各自的影响,基于该第一消息和位于该第一消息之前的前L条历史消息来获取该第一消息对应的第一权重消息,并由此确定该第一权重消息对应的四元组信息,从而可以更准确、客观地得到的第一权重消息对应的四元组信息,提高第一消息对应的四元组信息的准确性。
图3为本公开线上交互处理方法又一个实施例的流程图。该实施例中,步骤204可以通过一个预先训练得到的第一分层注意力模型实现,该第一分层注意力模型可以包括:分别用于实现消息内部/外部词级别的注意力机制的第一网络层、用于实现消息级别的注意力机制的第二网络层和用于实现任务级别的注意力机制的第三网络层,其中的第一网络层、第二网络层和第三网络层,可以分别包括一个或多个网络层,本公开实施例对此不做限制。如图3所示,在图2所示实施例的基础上,步骤204可以包括:
302,基于消息内部词级别的注意力机制,确定第一消息中各词的注意力权重值。
304,分别基于第一消息中各词的注意力权重值,对该第一消息中对应的词的词向量进行加权处理,得到该第一消息对应的第一中间权重消息。
以下以一个实例为例,对步骤302-304进行说明。
对于一次对话中的第i条消息mi,作为本次对话中的第一消息,
Figure BDA0003740663290000091
其中
Figure BDA0003740663290000092
表示第一消息中的第j个词,首先获取第一消息中各词的词向量,例如可以用BERT编码器、ALBERT编码器、词到向量(Word to the vector)、one-hot(独热码)等方式,分别获取第一消息中各词的词向量。由于不同的词在不同的任务(话术动作,头实体,尾实体,头实体与尾实体之间的关系)中起到的效果不尽相同,本公开实施例中,设计消息内部词级别的注意力机制以捕捉该第一消息内部不同词的重要性,由此可以得到第一消息对应的第一中间权重消息mi
Figure BDA0003740663290000093
公式(1)中,
Figure BDA0003740663290000094
表示第一消息mi中的第k个词的词向量;αk表示第k个词的注意力权重值,可以通过
Figure BDA0003740663290000095
计算得到。其中,
Figure BDA0003740663290000096
为第一预设任务相关函数,例如可以通过多层感知机(MLP)实现,其包含多个隐藏层的前馈神经网络模型;softmax()为归一化函数,即,第一消息mi中的所有词的词向量的注意力权重值之和为1。第一消息mi中各词的词向量组成的矩阵可以表示为Wi
分别针对前L条历史消息中的各条历史消息,执行步骤306-308。
306,基于消息外部词级别的注意力机制,确定历史消息中各词对第一消息的注意力权重值。
308,分别基于该历史消息中各词对第一消息的注意力权重值,对该历史消息中对应的词的词向量进行加权处理,得到该历史消息对应的第一外部权重消息。
继续上述实例,对步骤306-308进行说明。
考虑引入第一消息mi的上文信息。对于预设消息窗口大小L,选取本次对话中第一消息mi之前的前L条历史消息{mi-L,…,mi-1},分别获取任一条历史消息mi-j中各词的词向量,j的取值依次为[1,L]中的一个整数。对于任一条历史消息mi-j,设计消息外部词级别的注意力机制,用以捕捉不同词对于第一消息mi的重要性。例如,通过以下方式计算任一条历史消息mi-j中各词
Figure BDA0003740663290000101
对第一消息mi的注意力权重值
Figure BDA0003740663290000102
Figure BDA0003740663290000103
公式(2)中,
Figure BDA0003740663290000104
表示注意力权重值;
Figure BDA0003740663290000105
为第二预设任务相关函数,例如可以通过MLP实现,其包含多个隐藏层的前馈神经网络模型。由此,得到前L条历史消息中任一条历史消息mi-j对应的第一外部权重消息:
Figure BDA0003740663290000106
310,基于消息级别的注意力机制,确定各条历史消息对第一消息的注意力权重值。
312,分别基于各条历史消息对第一消息的注意力权重值,对对应的历史消息对应的第一外部权重消息进行加权处理,得到各条历史消息对应的第二外部权重消息。
314,基于预设权重值,对前L条历史消息对应的第二外部权重消息进行加权处理,得到前L条历史消息对应的第三外部权重消息。
316,基于第一消息对应的第一中间权重消息和前L条历史消息对应的第三外部权重消息,得到第一消息对应的第二中间权重消息。
继续上述实例,对步骤310-316进行说明。
设计消息级别的注意力机制,用于捕捉不同历史消息对于第一消息mi的重要性。具体地,使用
Figure BDA0003740663290000107
表示任一条历史消息mi-j对第一消息的注意力权重值,使用
Figure BDA0003740663290000108
表示由前L条历史消息{mi-L,…,mi-1}的注意力权重值构成的注意力权重向量,使用Mi表示前L条历史消息{mi-L,…,mi-1}对应的第一外部权重消息{mi-L,…mi-1}所组成的嵌入矩阵,则:
Figure BDA0003740663290000109
公式(4)中,
Figure BDA00037406632900001010
为第三预设任务相关函数,例如可以通过MLP实现,其包含多个隐藏层的前馈神经网络模型。
接着,利用如下公式(5)得到第一消息对应的第二中间权重消息
Figure BDA00037406632900001011
Figure BDA00037406632900001012
公式(5)中,mi为利用公式(1)得到的第一消息对应的第一中间权重消息;
Figure BDA00037406632900001013
表示任一条历史消息mi-j对应的第二外部权重消息;
Figure BDA00037406632900001014
表示前L条历史消息对应的第三外部权重消息;β1为预设权重值,β1的取值范围可以为(0,1),具体取值可以根据实际需求设置,并可以根据需要更新。
318,基于任务级别的注意力机制,得到各条历史消息对应的第二中间权重消息的注意力权重值。
320,分别基于各条历史消息对应的第二中间权重消息的注意力权重值,对对应的历史消息进行加权处理,得到各条历史消息对应的第四外部权重消息。
322,基于第一消息对应的第二中间权重消息和前L条历史消息对应的第四外部权重消息,得到第一消息对应的第一权重消息。
继续上述实例,对步骤318-322进行说明。
第一消息对应的第二中间权重消息
Figure BDA0003740663290000111
接下来被用于预设四元组中各元素的分类任务。进一步假设第一消息的分类任务的结果与前L条历史消息的分类任务的结果存在相关性,因此设计任务级别的注意力机制。具体地,使用
Figure BDA0003740663290000112
表示任一条历史消息mi-j对应的第二中间权重消息
Figure BDA0003740663290000113
的注意力权重值,使用
Figure BDA0003740663290000114
表示前L条历史消息的第二中间权重消息嵌入
Figure BDA0003740663290000115
所组成的嵌入矩阵,则通过如下公式(6)计算由前L条历史消息的第二中间权重消息的注意力权重值构成的注意力权重向量
Figure BDA0003740663290000116
Figure BDA0003740663290000117
公式(6)中,
Figure BDA0003740663290000118
为第三预设任务相关函数,例如可以通过MLP实现,其包含多个隐藏层的前馈神经网络模型。其中,任一条历史消息mi-j对应的第二中间权重消息
Figure BDA0003740663290000119
可以在以该历史消息mi-j作为当前消息(即第一消息时),基于该历史消息mi-j及其前L条历史消息,采用本公开实施例中获取第一消息对应的第二中间权重消息
Figure BDA00037406632900001110
的方式得到并存储。
接着,使用第一消息对应的第二中间权重消息
Figure BDA00037406632900001111
前L条历史消息中任一历史消息mi-j的第二中间权重消息
Figure BDA00037406632900001112
及对应的注意力权重值
Figure BDA00037406632900001113
利用如下公式(7)得到第一消息对应的第一权重消息
Figure BDA00037406632900001114
Figure BDA00037406632900001115
公式(6)中,
Figure BDA00037406632900001116
表示任一历史消息mi-j对应的第四外部权重消息;β1为预设权重值,β2的取值范围可以为(0,1),具体取值可以根据实际需求设置,并可以根据需要更新。
如图4所示,为本公开实施例中基于第一分层注意力模型获取第一消息对应的第一权重消息的一个示意图。需要说明的是,图4仅示出了L为2的一个示例,对于L取其他值的情况,可以参考处理,本公开实施例对此不再赘述。
基于本公开实施例,可以基于第一消息和位于该第一消息之前的前L条历史消息,采用消息内部/外部词级别的注意力机制、消息级别的注意力机制和任务级别的注意力机制,依次从词层面、消息层面和元素分类任务层面,考虑第一消息自身的影响,以及前L条历史消息在消息层面和元素分类任务层面上的相关性,来综合确定第一消息对应的第一权重消息,从而可以更加准确的确定第一消息对应的第一权重消息,有助于更准确的确定第一消息对应的话术动作实例化信息、头实体实例化信息、尾实体实例化信息、头实体与尾实体之间的关系实例化信息。
图5为本公开实施例中基于该第一权重消息确定对应的四元组信息的一个流程图。如图5所示,在图2和/或图3所示实施例的基础上,该实施例中,步骤206可以包括:
402,基于第一权重消息,利用预先训练得到的元素分类模型,对该第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系分别进行分类,得到话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果。
其中,话术动作分类结果可以包括第一权重消息对应的话术动作为其预设取值范围内各取值的分数(即概率),头实体分类结果可以包括第一权重消息对应的头实体为其预设取值范围内各取值的分数,尾实体分类结果可以包括第一权重消息对应的尾实体为其预设取值范围内各取值的分数,头实体与尾实体之间的关系分类结果可以包括第一权重消息对应的头实体与尾实体之间的关系为其预设取值范围内各取值的分数。
404,基于上述话术动作分类结果、头实体分类结果、尾实体分类结果、以及关系分类结果,利用条件随机场(conditional random field,CRF)模型,确定该第一权重消息对应的四元组信息。
其中,基于该CRF模型确定的四元组信息对应的目标函数的函数值最大,该CRF模型用于确定四元组中的各元素分别被分类为各分类结果时的分数,以及头实体分类结果、尾实体分类结果和关系分类结果中的任意两个分类结果之间的相关性分数之和。
继续图3中实例,将第一消息对应的第一权重消息
Figure BDA0003740663290000121
用于话术动作、头实体、尾实体、头实体与尾实体之间的关系分类任务时,分别表示为
Figure BDA0003740663290000122
对于第一权重消息
Figure BDA0003740663290000123
分类为某头实体e的分数表示为
Figure BDA0003740663290000124
本公开实施例考虑同一消息的话术动作、头实体、尾实体、关系的分类结果是相关性,将此分类任务建模为CRF模型,在其中一种可能的实现方式中,CRF模型可以通过以下目标函数maxa,h,r,t()实现,由该目标函数maxa,h,r,t()获取取值最大的至少一组元素(ai,si,pi,oi)分类结果作为第一权重消息对应的四元组信息:
Figure BDA0003740663290000125
公式(8)中,函数φ表示预先学习得到的实体-实体或实体-关系的相关性函数。例如,在其中一种可能的实现方式中,函数φ(h,r)、φ(r,t)、φ(h,t)可以分别通过如下方式实现:
Figure BDA0003740663290000126
公式(9)中,A、B、C分别为预先训练学习得到的参数矩阵,T表示转置操作。
由于目标函数maxa,h,r,t()的最优解的求解过程为非确定性多项式困难(non-deterministic polynomial hard,NP-hard)。可以使用循环信念传播(LBP)方法,训练CRF模型在较低的复杂度下获得NP问题的近似解(即次优解)。
基于本实施例,对该第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系分别进行分类时,不止要同时考虑四元组中的各元素的单独分类,还要同时考虑头实体、尾实体、以及头实体与尾实体关系中任意两个之间的关系约束,通过CRF模型使四元组中的各元素的单独分类分数、头实体和尾实体之间的相关性分数、头实体和头实体与尾实体关系之间的相关性分数、以及头实体与尾实体关系和尾实体之间的相关性分数之和最大化的方式,来确定第一权重消息对应的四元组信息,从而使得到的四元组信息更准确、合理,提高四元组信息的准确性。
可选地,在本公开实施例,可以预先训练得到上述元素分类模型。在本公开实施例的一种可能的实现方式中,可以通过如下方式训练得到元素分类模型:
S11,获取至少一组训练样本,该训练样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,其中的消息序列包括基于时序关系排序的多条样本消息,该消息序列中的最后一条样本消息标注有四元组的第一实例化标注信息;
S12,分别针对上述至少一组训练样本中的各组训练样本,将其中的第一样本权重消息输入待训练元素分类模型,经待训练元素分类模型输出该最后一条样本消息对应的第一四元组预测信息;
S13,基于各组训练样本的第一实例化标注信息与对应的第一四元组预测信息,对待训练元素分类模型进行训练,即调整待训练元素分类模型的参数。
可以迭代执行本实施例的步骤S11-S13或者S12-S13,直至达到第一预设训练完成条件,由待训练元素分类模型得到预训练元素分类模型或者直接得到元素分类模型。其中,预训练元素分类模型用于经过进一步训练得到所述元素分类模型。
可选地,在本公开实施例的一种可能的实现方式中,上述第一预设训练完成条件,例如可以包括但不限于以下任意一项或多项:对待训练元素分类模型进行迭代训练(即迭代执行本实施例的步骤S11-S13或者S12-S13)的次数达到第一预设次数(例如1000次),各组训练样本的第一实例化标注信息与对应的第一四元组预测信息之间的差异小于第一预设阈值,等等。
基于本实施例,可以通过至少一组训练样本预先训练得到预训练元素分类模型,或者直接训练得到元素分类模型。其中,通过至少一组训练样本预先训练得到预训练元素分类模型时,可以通过对该预训练元素分类模型进行进一步训练,来得到最终的元素分类模型。
可选地,通过上述实施例得到预训练元素分类模型之后,还可以包括:
S21,获取至少一组测试样本,该测试样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,其中的消息序列包括基于时序关系排序的多条样本消息。
S22,分别针对至少一组测试样本中的各组测试样本,将测试样本中的第一样本权重消息输入预训练元素分类模型,经预训练元素分类模型输出测试样本中最后一条样本消息对应的第二四元组预测信息。
S23,响应于接收到对第二四元组预测信息的修正操作,获取修正后的第二四元组预测信息作为对应的测试样本中最后一条样本消息的第二实例化标注信息,基于对应的测试样本和该对应的测试样本中最后一条样本消息的第二实例化标注信息,得到至少一组新增训练样本。
S24,分别针对至少一组新增训练样本中的各组新增训练样本,将新增训练样本中的第一样本权重消息输入预训练元素分类模型,经预训练元素分类模型输出新增训练样本中最后一条样本消息对应的第三四元组预测信息。
S25,基于各组新增训练样本的第二实例化标注信息与对应的第三四元组预测信息,对预训练元素分类模型进行训练,即调整预训练元素分类模型的参数。
可以迭代执行本实施例的步骤S21-S25或者S24-S25,直至达到第二预设训练完成条件,由预训练元素分类模型得到元素分类模型。
可选地,在本公开实施例的一种可能的实现方式中,上述第一预设训练完成条件,例如可以包括但不限于以下任意一项或多项:对预训练元素分类模型进行迭代训练(即迭代执行本实施例的步骤S21-S25或者S24-S25)的次数达到第二预设次数(例如800次),各组新增训练样本的第二实例化标注信息与对应的第三四元组预测信息之间的差异小于第二预设阈值,等等。
基于本实施例,可以仅通过人工对上述至少一组训练样本标注四元组的第一实例化标注信息,在训练得到预训练元素分类模型后,可以利用该预训练元素分类模型对至少一组测试样本的四元组的实例化信息进行预测,然后,人工核验与修正预训练元素分类模型预测错误的第二四元组预测信息,进行修正后作为对应的测试样本中最后一条样本消息的第二实例化标注信息得到至少一组新增训练样本,再进一步对预训练元素分类模型进行训练,由此,本实施例只需对少量的训练样本人工标注四元组的第一实例化标注信息,后续仅需人工核验与修正预训练元素分类模型预测错误的少量第二四元组预测信息,相对于整个训练过程中用于训练得到元素分类模型的全部样本(例如包括上述至少一组测试样本和至少一组训练样本)均需人工标注四元组的第一实例化标注信息,可以大大节省标注时间,提高标注效率,降低人工标注成本;此外,利用该预训练元素分类模型对至少一组测试样本的四元组的实例化信息进行预测,然后,人工核验与修正预训练元素分类模型预测错误的第二四元组预测信息,相对于全人工标注信息,可以有效提高标注信息的质量;另外,仅获取预训练元素分类模型预测错误、人工修正第二四元组预测信息对应的测试样本作为新增训练样本对预训练元素分类模型进行进一步精细化训练,可以提高预训练元素分类模型的训练效率。
图6为本公开线上交互处理方法再一个实施例的流程图。该实施例中,步骤204-206可以通过一个预先训练得到的知识抽取模型实现,该知识抽取模型可以包括:输入层、编码层和解码层。其中,编码层包括编码器和第二分层注意力模型,其中的编码器例如可以是BERT编码器、ALBERT编码器等,另外还可以采用基于词到向量、one-hot等方式的编码器,本公开实施例对此不做限制。第二分层注意力模型包括用于实现词级别的注意力机制的第四网络层、用于实现内容级别的注意力机制的第五网络层和第六网络层。其中的解码层可以通过一个预先学习不同任务之间相关性的第七网络层,其中的第四网络层、第五网络层、第六网络层、第七网络层,可以分别包括一个或多个网络层,本公开实施例对此不做限制。
图7为本公开实施例中基于知识抽取模型确定对应的四元组信息的一个示意图。如图6所示,同时参见图7,在该实施例中,图2所示实施例可以通过如下方式实现:
502,基于预设消息窗口大小L,从第一消息的上文消息中选取该第一消息的前L条历史消息。
其中,前L条历史消息为上文消息中的最后L条历史消息,L为大于0的整数,L的取值可以根据实际需求设置,并可以被更新。在图7中,具体以N条历史消息为例进行说明。
504,通过知识抽取模型中的输入层,分别获取第一消息和上述前L条历史消息中各条历史消息的词序列。
以下结合一个实例,对该步骤504的其中一种实现方式进行说明。
以一次对话中的第i条消息ui作为本次对话中的第一消息,对于预设消息窗口大小L,选取本次对话中第一消息ui之前的前L条历史消息[ui-L,…,ui-1]作为上文消息,其中,第一消息和前L条历史消息中的任意一条消息up分别由一个个词(字符)组成,通过知识抽取模型中的输入层,分别获取第一消息和上述前L条历史消息中各条消息up的词序列:up=[up,1,up,2,…],p的取值依次为[i-L,i]中的一个整数。
506,通过知识抽取模型中的编码层,基于第一消息的词序列和各条历史消息的词序列,确定各条历史消息对第一消息的注意力权重值,并基于第一消息的词序列、各条历史消息的词序列及各条历史消息对所述第一消息的注意力权重值,获取第一消息对应的第一权重消息。
继续结合步骤504中的实例,对该步骤506的其中一种实现方式进行说明。
利用编码层中的编码器,例如ALBERT编码器、BERT编码器或其他编码器,分别对第一消息的词序列和各条历史消息的词序列进行词到向量转换,将第一消息的词序列和各条历史消息的词序列中的每个词up,k都映射为一个实向量
Figure BDA0003740663290000141
得到第一消息对应的向量序列和各条历史消息对应的向量序列,其中,d1表示编码器输出的维度;
基于词级别的注意力机制,分别确定第一消息对应的向量序列中各词向量的注意力权重值,并基于该第一消息对应的向量序列中各词向量的注意力权重值,对该第一消息对应的向量序列中各词向量进行加权处理,得到第一消息的加权结果。例如,通过以下方式确定第一消息对应的向量序列中各词向量的注意力权重值
Figure BDA0003740663290000151
Figure BDA0003740663290000152
公式(10)中,
Figure BDA0003740663290000153
表示第一消息对应的向量序列中各词向量ui,j的权重值,并进一步得到第一消息的加权结果
Figure BDA0003740663290000154
基于内容级别的注意力机制对第一消息的加权结果进行处理,得到第一消息对应的第三中间权重消息。例如,利用MLP,通过以下方式得到第一消息对应的第三中间权重消息:
Figure BDA0003740663290000155
公式(11)中,MLP为多层感知机。
Figure BDA0003740663290000156
用于表示第一消息ui本身的语义信息。
分别针对各条历史消息:基于词级别的注意力机制,分别确定该历史消息对应的向量序列中各词向量的注意力权重值,并基于该历史消息对应的向量序列中各词向量的注意力权重值,对该历史消息对应的向量序列中各词向量进行加权处理,得到该历史消息的加权结果;基于内容级别的注意力机制对该历史消息的加权结果进行处理,得到该历史消息对应的第三中间权重消息
Figure BDA0003740663290000157
j的取值依次为[1,L]中的一个整数。得到该历史消息对应的第三中间权重消息
Figure BDA0003740663290000158
的具体实现方式与上述得到第一消息的第三中间权重消息
Figure BDA0003740663290000159
的实现方式相同,可以参考上述得到第一消息的第三中间权重消息的实现方式;
基于内容级别的注意力机制,分别确定各条历史消息对应的第三中间权重消息的注意力权重值。例如,可以通过如下方式,确定各条历史消息ui-j对应的第三中间权重消息
Figure BDA00037406632900001510
的注意力权重值:
Figure BDA00037406632900001511
然后,基于各条历史消息对应的第三中间权重消息的注意力权重值对对应的各条历史消息对应的第三中间权重消息进行加权处理,得到历史权重消息。例如,可以通过如下方式,得到历史权重消息:
Figure BDA00037406632900001512
公式(13)中,L为第一消息ui的历史消息的条数。
Figure BDA00037406632900001513
用于表示第一消息ui上文的语义信息。
基于第一消息对应的第三中间权重消息,确定第一消息对应的第三中间权重消息的权重值。例如,可以通过如下方式,确定第一消息对应的第三中间权重消息的权重值:
Figure BDA00037406632900001514
公式(14)中,Sigmoid()为S型函数。
基于第一消息对应的第三中间权重消息、第一消息对应的第三中间权重消息的权重值、历史权重消息和历史权重消息的权重值,得到第一消息对应的第一权重消息。例如,可以通过如下方式,得到第一消息对应的第一权重消息
Figure BDA00037406632900001515
Figure BDA00037406632900001516
508,通过知识抽取模型中的解码层,基于上述第一消息对应的第一权重消息,确定该第一权重消息对应的四元组信息。
继续结合上述实例,对该步骤508的其中一种实现方式进行说明。通过解码层,基于第一权重消息,分别预测该第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系的分类得分。例如,可以通过以下方式,分别预测该第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系的分类得分
Figure BDA0003740663290000161
Figure BDA0003740663290000162
公式(16)中,
Figure BDA0003740663290000163
表示各分类任务t的第q个分类的类向量,其中的分类任务t,即用于对话术动作、头实体、尾实体、以及头实体与尾实体之间的关系等元素分别进行分类(即实例化)以得到分类结果(即实例化信息)的任务。其中,预先设置了各元素的分类集合,该分类集合中包括了该元素可能的分类(即实例化信息)及该分类的向量(即类向量);γ(t′)∈R,是解码层的参数。其中的解码层预先学习建模了不同任务t、t′之间的相关性。基于第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系的分类得分,确定话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果,作为预设四元组中的元素实例化的信息。即该第一权重消息对应的四元组信息。
具体来说,通过公式(16)预测出各元素分别属于其分类集合中各分类的分类得分后,选取在分类集合中分类得分最高的分类作为其分类结果。
图7中,示出了知识抽取模型输出两个四元组信息(a1,s1,p1,o1)与(a2,s2,p2,o2)的具体示例,其中valid1与valid2对应表示两个四元组是否为空,可以设置valid取值为1时表示对应的四元组信息有效,valid取值为0时表示对应的四元组信息无效(即为空),本公开实施例对此不做限制。
基于本公开实施例,可以将第一消息和位于该第一消息之前的前L条历史消息输入知识抽取模型,由知识抽取模型结合第一消息的上文信息,直接确定该第一消息的话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果,可以快速得到该第一消息对应的四元组信息,并且使得到的四元组信息更准确、合理,从而提高确定四元组信息的准确性和效率。实际应用中,可以将第一消息及其上文信息中的每条消息up依次按照以下的格式独立输入知识抽取模型:
[CLS][第一用户]/[第二用户]up
其中,[第一用户]/[第二用户]表示该消息up的发送者是第一用户或第二用户,从而进一步提高四元组信息确定结果的准确性。
另外,实际应用中,将第一消息及其上文信息输入知识抽取模型后,可以经知识抽取模型输出至少一个四元组信息,并可以同时输出用于表示四元组信息是否为空的对应表示两个四元组是否为空的字段valid,或者,也可以在四元组信息中某个元素为空时,以“空”表示该元素的分类结果。例如针对第一用户发送的第一消息“房屋价格多少?”,经知识抽取模型输出两个四元组信息:(询问,房屋,价格,空)、(空,空,空,空);或者1:(询问,房屋,价格,空);0:(空,空,空,空),等等。本公开实施例对知识抽取模型输出的第一消息对应的四元组信息的数量和格式不做限制。
可选地,在本公开实施例,可以预先训练得到上述知识抽取模型。在本公开实施例的一种可能的实现方式中,可以通过如下方式训练得到知识抽取模型:
S31,获取至少一组训练样本,该训练样本包括:一次对话中的消息序列,该消息序列包括基于时序关系排序的多条样本消息,多条样本消息中的最后一条样本消息标注有四元组的第一实例化标注信息。
S32,分别针对上述至少一组训练样本中的各组训练样本,将训练样本输入待训练知识抽取模型,经该待训练知识抽取模型输出最后一条样本消息对应的第三四元组预测信息。
S33,基于各组训练样本的第一实例化标注信息与对应的第三四元组预测信息,对待训练知识抽取模型进行训练,即调整待训练知识抽取模型的参数。
可以迭代执行本实施例的步骤S31-S33或者S32-S33,直至达到第三预设训练完成条件,得到预训练知识抽取模型或者知识抽取模型。其中的预训练知识抽取模型用于经过进一步训练得到所述知识抽取模型。
可选地,在本公开实施例的一种可能的实现方式中,上述第三预设训练完成条件,例如可以包括但不限于以下任意一项或多项:对待训练知识抽取模型进行迭代训练(即迭代执行本实施例的步骤S31-S33或者S32-S33)的次数达到第一预设次数(例如1000次),各组训练样本的第一实例化标注信息与对应的第三四元组预测信息之间的差异小于第三预设阈值,等等。
基于本实施例,可以通过至少一组训练样本预先训练得到预训练知识抽取模型,或者直接训练得到知识抽取模型。其中,通过至少一组训练样本预先训练得到预训练知识抽取模型时,可以通过对该预训练知识抽取模型进行进一步训练,来得到最终的知识抽取模型。
可选地,通过上述实施例得到预训练知识抽取模型之后,还可以包括:
S41,获取至少一组测试样本,所述测试样本包括:一次对话中的消息序列,所述消息序列包括基于时序关系排序的多条样本消息。
S42,分别针对所述至少一组测试样本中的各组测试样本,将测试样本输入所述预训练知识抽取模型,经该预训练知识抽取模型输出该测试样本中最后一条样本消息对应的第四四元组预测信息。
S43,响应于接收到对第四四元组预测信息的修正操作,获取修正后的第四四元组预测信息作为对应的测试样本中最后一条样本消息的第四实例化标注信息,基于该对应的测试样本和所述对应的测试样本中最后一条样本消息的第四实例化标注信息,得到至少一组新增训练样本。
S44,分别针对所述至少一组新增训练样本中的各组新增训练样本,将新增训练样本输入预训练知识抽取模型,经预训练知识抽取模型输出该新增训练样本中最后一条样本消息对应的第五四元组预测信息。
S45,基于各组新增训练样本的第四实例化标注信息与对应的第五四元组预测信息,对预训练知识抽取模型进行训练,即调整预训练知识抽取模型的参数。
可以迭代执行本实施例的步骤S41-S45或者S44-S45,直至达到第四预设训练完成条件,由预训练知识抽取模型得到知识抽取模型。
可选地,在本公开实施例的一种可能的实现方式中,上述第一预设训练完成条件,例如可以包括但不限于以下任意一项或多项:对预训练知识抽取模型进行迭代训练(即迭代执行本实施例的步骤S41-S45或者S44-S45)的次数达到第二预设次数(例如800次),各组新增训练样本的第二实例化标注信息与对应的第三四元组预测信息之间的差异小于第四预设阈值,等等。
基于本实施例,可以仅通过人工对上述至少一组训练样本标注四元组的第一实例化标注信息,在训练得到预训练知识抽取模型后,可以利用该预训练知识抽取模型对至少一组测试样本的四元组的实例化信息进行预测,然后,人工核验与修正预训练知识抽取模型预测错误的第四四元组预测信息,进行修正后作为对应的测试样本中最后一条样本消息的第四实例化标注信息得到至少一组新增训练样本,再进一步对预训练知识抽取模型进行训练,由此,本实施例只需对少量的训练样本人工标注四元组的第一实例化标注信息,后续仅需人工核验与修正预训练知识抽取模型预测错误的少量第四四元组预测信息,相对于整个训练过程中用于训练得到知识抽取模型的全部样本(例如包括上述至少一组测试样本和至少一组训练样本)均需人工标注四元组的第一实例化标注信息,可以大大节省标注时间,提高标注效率,降低人工标注成本;此外,利用该预训练知识抽取模型对至少一组测试样本的四元组的实例化信息进行预测,然后,人工核验与修正预训练知识抽取模型预测错误的第四四元组预测信息,相对于全人工标注信息,可以有效提高标注信息的质量;另外,仅获取预训练知识抽取模型预测错误、人工修正第四四元组预测信息对应的测试样本作为新增训练样本对预训练知识抽取模型进行进一步精细化训练,可以提高预训练知识抽取模型的训练效率。
可选地,在本公开实施例的一种可能的实现方式中,在步骤104中,预测得到的下一消息对应的四元组信息可以包括至少一个四元组信息,即预测得到的下一消息对应的四元组信息可以是一个,也可以是多个,例如可以预测得到的下一消息对应的四元组信息:(陈述,房屋,价格,数字),(回答内容,房屋,首付,数字),等。相应地,在步骤106中向第二用户推送下一消息对应的四元组信息之后,还可以接收第二用户基于该至少一个四元组信息中的一个四元组信息发送的回复消息。
基于本实施例,第二用户可以参考接收到的下一消息对应的四元组信息,选取其中一个四元组信息、并结合服务领域内的专业知识,输入回复消息回复第一用户,协助第二用户通过对话引导第一用户,以有效挖掘第一用户的需求。
或者,在本公开实施例的另一种可能的实现方式中,在步骤104中,预测得到的下一消息对应的四元组信息可以包括至少一个四元组信息,即预测得到的下一消息对应的四元组信息可以是一个,也可以是多个,例如可以预测得到的下一消息对应的四元组信息:(陈述,房屋,价格,数字),(回答内容,房屋,首付,数字),等。相应地,在步骤106中向第二用户推送下一消息对应的四元组信息之后,还可以包括:响应于接收到第二用户从上述至少一个四元组信息中选取的目标四元组信息、以及针对该目标四元组信息中的尾实体输入的属性值,基于预设话术生成策略、该目标四元组信息和针对该目标四元组信息中的尾实体输入的属性值,生成第一消息的回复消息。
基于本实施例,第二用户可以选取接收到的下一消息对应的其中一个四元组信息作为目标四元组信息,并结合服务领域内的专业知识针对该目标四元组信息中的尾实体输入的属性值,例如输入(陈述,房屋,价格,数字)中的“数字”,从而可以基于预设话术生成策略、该目标四元组信息和针对该目标四元组信息中的尾实体输入的属性值,自动生成第一消息的回复消息回复第一用户,而无需第二用户输入完整的回复消息,可以缩短回复时间,有效提高沟通效率。
另外,在上述实施例中,步骤104中预测得到的下一消息对应的四元组信息可以包括多个四元组信息时,如果多个四元组信息的数量大于预设数量N,则可以根据预设规则,例如多个四元组信息中各四元组信息的历史使用率,从多个四元组信息中选取N个四元组信息推送给第二用户。其中,N的取值为大于0的整数,例如取值可以为3,N的具体取值可以根据实际需求设置,并可以根据需要更新。
另外,在本公开实施例的又一种可能的实现方式中,向第二用户推送下一消息对应的四元组信息后,第二用户也可以不采纳推送的四元组信息,而是自己输入第一消息的回复消息。
本公开实施例中,通过步骤102确定第一消息对应的四元组信息、步骤104预测本次对话中下一消息对应的四元组信息、以及步骤106第二用户基于该下一消息对应的四元组信息生成第一消息的回复消息的过程,可以面向人机耦合对话的对话决策。对于面向人机耦合对话的对话决策这一场景,对话的结构化表示可以视作四元组信息构成的序列T1,T2,T3,…,Tn,其中,Ti表示对话中一个消息的四元组信息。由此,预设话术生成策略可以看作是一个序列决策策略,具体而言,给定已知的对话序列T1,T2,T3,…,Tt,预测序列中的下一个消息对应的四元组信息Tt+1
由此,预设话术生成策略可以通过强化学习的方式预先训练得到,可以将环境E定义为客户,时刻t的状态St定义为当前时刻t解析得到的时序知识图谱
Figure BDA0003740663290000191
时刻t的话术动作At定义为服务人员的消息所解析成的说话方式,奖励R定义为对话中是否完成加私(即客户是否预留了其联系方式信息),使用真实场景下的对话数据对对话策略π进行离线训练,从而得到话术生成策略。
图8为本公开线上交互处理方法还一个实施例的流程图。如图8所示,在上述图1-图7任一所示实施例的基础上,该实施例中,在步骤102之后,还可以包括:
602,根据预先设置的知识图谱的数据模型、第一消息对应的四元组信息中的话术动作实例化信息、头实体实例化信息和尾实体实例化信息,对第一消息的上文消息对应的时序知识图谱进行更新,得到第一消息对应的时序知识图谱。
其中,数据模型中的节点用于表示实体,节点表示的实体包括头实体和尾实体,节点之间的连接关系用于表示头实体与尾实体之间的关系。
根据该步骤602,可以在每接收到一条消息mi(即第一消息)时,可以根据该消息mi及其上文消息{mi-M,…,mi-1},可以通过本公开上述实施例,将当前消息mi解析为四元组信息(话术动作,头实体,关系,尾实体),由此,本次对话的对话状态可以表示为一个时序知识图谱
Figure BDA0003740663290000192
其中对应于本次对话中时刻t的时序知识图谱可以表示为
Figure BDA0003740663290000193
其包括了从本次对话开始到时刻t接收到的所有消息的知识图谱,该过程可以称为面向辅助场景的对话状态推理。通过时序知识图谱
Figure BDA0003740663290000194
可以全面体现从本次对话开始到时刻t接收到的所有消息中的关键信息,包括第一用户的需求和关注信息。如图9所示,为本公开实施例中时序知识图谱的一个示例图,图9示出了从消息1到消息7逐步建立、更新得到的时序知识图谱,作为消息7对应的时序知识图谱。
604,向第二用户推送第一消息对应的时序知识图谱。
基于本实施例,考虑了一次对话中同一消息内部以及不同消息间的知识结构化推理结果之间的相关性,分别将对话中的每条消息解析为四元组信息(话术动作,头实体,关系,尾实体),那么其中的头实体的分类结果与关系的分类结果、头实体的分类结果与尾实体的分类结果、以及尾实体的分类结果与关系的分类结果之间并非独立而是相关的,同理,当前消息的四元组信息解析结果与本次对话中前若干条消息的四元组信息解析结果也并非独立而是相关的,基于一次对话中同一消息内部以及不同消息间的知识结构化推理结果之间的相关性,分别根据每条消息在该消息的上文消息对应的时序知识图谱的基础上进行更新,从而可以得到准确的动态时序知识图谱,以全面、准确地反应本次对话的当前对话状态,通过向第二用户推送该消息对应的时序知识图谱展示第一用户的意图与喜好,可以使第二用户全面了解本次对话中的关键信息(包括第一用户的需求和关注信息),从而可以辅助第二用户更好地进行接下来的对话,有助于提升服务人员与客户之间的沟通效率并提升客户的用户体验。
其中,知识图谱是一种以有向图的形式表达人类知识的数据结构,其基本结构是一种有向异构图。知识图谱是一种揭示实体之间关系的异构语义网络,可以对现实世界的事物及其相互关系进行形式化的描述。知识图谱中,节点E={e1,e2,e3,...,e|E|}代表实体(也称为概念,对应于事物的语义),有向边R={r1,r2,r3,...,r|R|}代表实体/概念之间的各种语义关系(对应于事物之间的关系)。一个三元组(h,r,t)表示一条知识,两个实体间存在着某种关系,其中h表示知识的头节点(也即头实体),t表示尾节点(也即尾实体)。若干三元组(h,r,t)的集合构成一个知识图谱。
本公开实施例中,知识图谱的数据模型具有以下特点:
(1)通过头实体(主语)对内容进行细分。现有的标签体系中,往往不对实体与关系进行区分。例如,如果只利用标签体系,一条消息可能会被打上“面积”这一标签,这表示着这条消息聊到了面积这一话题。而基于本公开实施例设计的知识图谱的数据模型,不同的消息可能被解析为(客户,需求面积,面积)与(房屋,面积,面积)这两个三元组,从而通过头实体可以对具体内容进行细分。除此之外,对于相同的关系(谓语),还可以通过头实体进行区分,例如,可以用(房屋,面积,面积)与(厨房,面积,面积)将表示谓语的“面积”这一标签区分为房屋面积与厨房面积。
(2)定义复合关系以符合人类思维习惯。本公开实施例设计的知识图谱的数据模型,关系的设计原则较为符合人类思维习惯。首先,自然语言中的谓语存在多跳特性,例如“有个楼盘精装修7600左右的单价”,理论上楼盘不能直接与单价这个关系相连,实际上这是由于人类的思维习惯直接跳过了房屋这一中间实体。因此,本公开实施例设计的知识图谱的数据模型,直接为楼盘这一实体添加单价这个关系以符合人类思维。其次,自然语言中的谓语存在复合特性,例如“您主要关注多大户型的呢?”这一消息中涉及“需求”与“面积”这两个关系的复合,因此,本公开实施例设计的知识图谱的数据模型,可以直接定义“需求面积”这一复合关系。
本公开实施例设计的知识图谱的数据模型,可以结合客户主观需求与专业领域的客观知识,通过头实体(主语)对内容进行细分,同时符合人类的思维习惯。例如,在本公开实施例的一种可能的实现方式中,本公开实施例应用于房产交易领域时,为本公开实施例中知识图谱的数据模型的一个示例图如图10所示。在该房产交易领域的知识图谱的数据模型中,上述头实体例如可以包括但不限于以下至少一项:客户资质类实体、地理概念类实体,其中的客户即本公开上述实施例中的第一用户;上述尾实体例如可以包括但不限于:属性类实体。分别对客户资质类实体、地理概念类实体、属性类实体这三个实体及其相连的关系进行了定义。
基于本实施例,可以将专业领域(例如房产交易领域)中在线对话服务场景中的知识通过有向图的形式(即基于知识图谱及其拓展形式)进行定义。通过头实体(主语)对内容进行细分、定义复合关系以符合人类思维习惯,在知识体系的设计中考虑了不同知识之间的内在逻辑联系,例如槽位体系中的键之间存在一定的逻辑联系,例如“房屋价格”与“房屋面积”这两个槽都是涉及房屋的属性、存在一定逻辑联系,有助于应用时从“图”或“路径”的角度针对知识的关联性进行有效建模与分析。另外,知识设计的粒度较细,融合了对话内容(h,r,t)与话术动作(a)两个正交的部分,对话内容则是融合了主语(h)、谓语(r)、宾语(t)这三种概念,有助于知识体系的维护与对下游任务的支持,其中的下游任务例如,面向辅助场景的对话状态推理,面向人机耦合对话的对话决策,面向诊断场景的对话质量评价,等等。
图11为本公开线上交互处理方法还一个实施例的流程图。如图11所示,在上述图1-图8任一所示实施例的基础上,该实施例中,还可以包括:
702,响应于本次对话结束,获取本次对话对应的第一知识图谱向量。
其中,可以将本次对话例如采用图8所示实施例的方法,解析为一个时序知识图谱,之后,可以利用如图表示技术或者图神经网络,获取该时序知识图谱的特征向量,得到本次对话对应的第一知识图谱向量。
704,获取第一知识图谱向量与预设第一知识图谱向量集合中各参考知识图谱向量之间的相似性。
其中,第一知识图谱向量集合包括至少一个参考知识图谱向量,每个参考知识图谱向量为一个预设高水平对话(即高水平服务人员对话)对应的知识图谱向量。
例如,在其中一种可能的实现方式中,可以通过如下方式获取第一知识图谱向量与预设第一知识图谱向量集合中各参考知识图谱向量之间的相似性:
f(a,b)=aTb 公式(17)
公式(17)中a、b分别为第一知识图谱向量、一个参考知识图谱向量;T表示转置操作。
706,获取与第一知识图谱向量之间的相似性最小的预设数量个参考知识图谱向量。
其中的预设数量可以根据实际需求设置,并可以根据需要更新,例如预设数量具体可以为3,本公开实施例预设数量的具体取值不做限制。
其中,相似性越小,表示预设高水平对话中与本次对话之间在对话策略、对话内容、对话风格等发明差异越大。
708,获取该预设数量个参考知识图谱向量对应的对话和知识图谱。
710,向第二用户推送该预设数量个参考知识图谱向量对应的对话和知识图谱。
基于本实施例,在本次对话结束后,可以获取预设高水平对话中与本次对话之间在对话策略、对话内容、对话风格等方面差异最大的预设高水平对话和对应的知识图谱作为诊断对比结果返回给第二用户(即服务人员),通过对比这一方式进行可解释结果呈现,向服务人员展示表现优秀的对话内容,从而可以使服务人员了解其对话能力与优秀高水平对话能力之间的差别,有助于服务人员通过学习提高其在线服务能力。由此,本实施例所示的过程可以称为面向诊断场景的对话质量评价。
可选地,在本公开实施例的一种可能的实现方式中,具体可以利用预设对比学习目标函数,来执行步骤704-706,即获取第一知识图谱向量与预设知识图谱向量集合中各参考知识图谱向量之间的相似性,并获取与第一知识图谱向量之间的相似性最小的预设数量个参考知识图谱向量。
可选地,在其中一种可能的实现方式中,可以利用预先训练得到的如下对比学习目标函数,来获取与第一知识图谱向量之间的相似性最小的预设数量个参考知识图谱向量。
-max(aTb--aTb++m,0) 公式(18)
公式(18)中,b-表示预设第一知识图谱向量集合中各参考知识图谱向量,b+表示预设低水平对话对应的知识图谱向量集合中各低水平知识图谱向量;T表示转置操作;m为超参数,可以预设设置。
可选地,在本公开实施例,可以预先训练得到上述对比学习目标函数。在本公开实施例的一种可能的实现方式中,可以通过如下方式得到对比学习目标函数:
S31,获取第二知识图谱向量集合和第三知识图谱向量集合。
其中,第二知识图谱向量集合包括至少一个第二知识图谱向量,每个第二知识图谱向量为一个预设高水平对话对应的知识图谱向量;第三知识图谱向量集合包括至少一个第三知识图谱向量,每个第三知识图谱向量为一个预设低水平对话对应的知识图谱向量。
其中,预设高水平对话与预设低水平对话,可以基于不同第二用户(服务人员)在预设时间(例如一个月、一周等)内的加私率确定,将在该预设时间内加私率高于第一预设值的第二用户标注为高水平第二用户,将其在该预设时间内的对话标注为高水平对话;将在该预设时间内加私率低于第二预设值的第二用户标注为低水平第二用户,将其在该预设时间内的对话标注为低水平对话,其中的第一预设值和第二预设值分别为大于0且小于1的实数,且第一预设值大于第二预设值。其中的加私率即在该预设时间内加私对话数量与商机对话数量之间的比值。其中,商机对话是指第一用户(客户)与第二用户产生了在线对话,商机对话数量是指第一用户与第二用户产生的在线对话的数量;加私对话是指,在一次在线对话中第一用户预留了其联系方式信息。
S32,利用第二知识图谱向量集合和第三知识图谱向量集合对待训练对比学习目标函数进行训练,以使第二知识图谱向量集合中任意两个第二知识图谱向量之间的相似性最大化、第三知识图谱向量集合中任意两个第三知识图谱向量之间的相似性最大化、第二知识图谱向量集合中任意一个第二知识图谱向量与第三知识图谱向量集合中任意一个第三知识图谱向量之间的相似性最小化。
可选地,在其中一种可能的实现方式中,待训练对比学习目标函数可以表示为:
-max(uTv--uTv++m,0) 公式(19)
公式(19)中,u为第二知识图谱向量集合或第三知识图谱向量集合中的任一知识图谱向量,v+表示与u属于相同知识图谱向量集合中的其他任一知识图谱向量,v-表示与u分属不同知识图谱向量集合中的任一知识图谱向量。
基于本实施例,可以通过预设高水平对话对应的知识图谱向量集合和预设低水平对话对应的知识图谱向量集合,训练学习得到对比学习目标函数,从而可以在每次对话结束后,基于该对比学习目标函数获取预设高水平对话中与本次对话之间在对话策略、对话内容、对话风格等方面差异最大的预设高水平对话和对应的知识图谱作为诊断对比结果返回给第二用户(即服务人员),以使服务人员了解其对话能力与优秀高水平对话能力之间的差别,有助于服务人员通过学习提高其在线服务能力。
本公开实施例提供的任一种线上交互处理方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种线上交互处理方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种线上交互处理方法。下文不再赘述。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
另外,本公开实施例还提供了一种电子设备,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现上述任一实施例所述的线上交互处理方法。
下面,参考图12来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图12为本公开电子设备实施例的一个结构示意图。如图12所示,电子设备包括一个或多个处理器802和存储器804。
处理器802可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器804可以存储一个或多个计算机程序产品,所述存储器804可以包括各种形式的计算机可读存储介质,例如易失性存储器804和/或非易失性存储器804。所述易失性存储器804例如可以包括随机存取存储器804(RAM)和/或高速缓冲存储器804(cache)等。所述非易失性存储器804例如可以包括只读存储器804(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序产品,处理器802可以运行所述计算机程序产品,以实现上文所述的本公开的各个实施例的线上交互处理方法以及/或者其他期望的功能。
在一个示例中,电子装置还可以包括:输入装置806和输出装置808,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置806还可以包括例如键盘、鼠标等等。
该输出装置808可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置808可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出装置808等等。
当然,为了简化,图12中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器802运行时使得所述处理器802执行本说明书上述部分中描述的根据本公开各种实施例的线上交互处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器802运行时使得所述处理器802执行本说明书上述部分中描述的根据本公开各种实施例的线上交互处理方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器804(RAM)、只读存储器804(ROM)、可擦式可编程只读存储器804(EPROM或闪存)、光纤、便携式紧凑盘只读存储器804(CD-ROM)、光存储器804件、磁存储器804件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种线上交互处理方法,其特征在于,包括:
响应于接收到第一用户发送的第一消息,确定所述第一消息对应的四元组信息;其中,所述四元组信息为预设四元组中的元素实例化后得到的信息,所述预设四元组中的元素包括:话术动作,头实体,尾实体,所述头实体与所述尾实体之间的关系;
基于所述第一消息对应的四元组信息和所述第一消息的上文消息对应的四元组信息,预测本次对话中下一消息对应的四元组信息;其中,所述上文消息包括:本次对话中时序位于所述第一消息之前、且基于时序关系排列的至少一条历史消息;
向第二用户推送所述下一消息对应的四元组信息,以便所述第二用户基于所述下一消息对应的四元组信息生成所述第一消息的回复消息。
2.根据权利要求1所述的方法,其特征在于,所述确定所述第一消息对应的四元组信息,包括:
基于所述第一消息和所述上文消息,确定所述第一消息对应的四元组信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一消息和所述上文消息,确定所述第一消息对应的四元组信息,包括:
基于预设消息窗口大小L,从所述上文消息中选取所述第一消息的前L条历史消息;其中,所述前L条历史消息为所述上文消息中的最后L条历史消息,L为大于0的整数;
采用预设注意力机制,确定所述前L条历史消息中的各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息、所述各条历史消息及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息;
基于所述第一权重消息,确定所述第一权重消息对应的四元组信息。
4.根据权利要求3所述的方法,其特征在于,所述采用预设注意力机制,确定所述前L条历史消息中的各条历史消息对所述第一消息的注意力权重值,并基于所述第一消息、所述各条历史消息及所述各条历史消息对所述第一消息的注意力权重值,获取所述第一消息对应的第一权重消息,包括:
基于消息内部词级别的注意力机制,确定所述第一消息中各词的注意力权重值;分别基于所述第一消息中各词的注意力权重值,对所述第一消息中对应的词的词向量进行加权处理,得到所述第一消息对应的第一中间权重消息;
分别针对所述前L条历史消息中的各条历史消息:基于消息外部词级别的注意力机制,确定所述历史消息中各词对所述第一消息的注意力权重值;分别基于所述历史消息中各词对所述第一消息的注意力权重值,对所述历史消息中对应的词的词向量进行加权处理,得到所述历史消息对应的第一外部权重消息;
基于消息级别的注意力机制,确定所述各条历史消息对所述第一消息的注意力权重值;分别基于所述各条历史消息对所述第一消息的注意力权重值,对对应的所述历史消息对应的第一外部权重消息进行加权处理,得到所述各条历史消息对应的第二外部权重消息;
基于预设权重值,对所述前L条历史消息对应的第二外部权重消息进行加权处理,得到所述前L条历史消息对应的第三外部权重消息;
基于所述第一消息对应的第一中间权重消息和所述前L条历史消息对应的第三外部权重消息,得到所述第一消息对应的第二中间权重消息;
基于任务级别的注意力机制,得到所述各条历史消息对应的第二中间权重消息的注意力权重值;分别基于所述各条历史消息对应的第二中间权重消息的注意力权重值,对对应的所述历史消息进行加权处理,得到所述各条历史消息对应的第四外部权重消息;
基于所述第一消息对应的第二中间权重消息和所述前L条历史消息对应的第四外部权重消息,得到所述第一消息对应的第一权重消息。
5.根据权利要求3或4所述的方法,其特征在于,所述基于所述第一权重消息,确定所述第一权重消息对应的四元组信息,包括:
基于所述第一权重消息,利用预先训练得到的元素分类模型,对所述第一权重消息对应的话术动作、头实体、尾实体、以及头实体与尾实体之间的关系分别进行分类,得到话术动作分类结果、头实体分类结果、尾实体分类结果、以及头实体与尾实体之间的关系分类结果;
基于所述话术动作分类结果、所述头实体分类结果、所述尾实体分类结果、以及所述关系分类结果,利用条件随机场模型,确定所述第一权重消息对应的四元组信息;其中,基于所述条件随机场模型确定的四元组信息对应的函数值最大,所述条件随机场模型用于确定所述四元组中的各元素分别被分类为各分类结果时的分数,以及所述头实体分类结果、所述尾实体分类结果和所述关系分类结果中的任意两个分类结果之间的相关性分数之和。
6.根据权利要求3-5任一所述的方法,其特征在于,还包括训练得到所述元素分类模型的步骤:
获取至少一组训练样本,所述训练样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,所述消息序列包括基于时序关系排序的多条样本消息,所述最后一条样本消息标注有所述四元组的第一实例化标注信息;
分别针对所述至少一组训练样本中的各组训练样本,将所述第一样本权重消息输入待训练元素分类模型,经所述待训练元素分类模型输出所述最后一条样本消息对应的第一四元组预测信息;
基于所述第一实例化标注信息与所述第一四元组预测信息,对所述待训练元素分类模型进行迭代训练,直至达到第一预设训练完成条件,得到预训练元素分类模型或者所述元素分类模型;其中,所述预训练元素分类模型用于经过进一步训练得到所述元素分类模型。
7.根据权利要求6所述的方法,其特征在于,所述得到预训练元素分类模型之后,还包括:
获取至少一组测试样本,所述测试样本包括:一次对话中的消息序列中最后一条样本消息对应的第一样本权重消息,所述消息序列包括基于时序关系排序的多条样本消息;
分别针对所述至少一组测试样本中的各组测试样本,将所述测试样本中的第一样本权重消息输入所述预训练元素分类模型,经所述预训练元素分类模型输出所述测试样本中最后一条样本消息对应的第二四元组预测信息;
响应于接收到对所述第二四元组预测信息的修正操作,获取修正后的第二四元组预测信息作为对应的测试样本中最后一条样本消息的第二实例化标注信息,基于所述对应的测试样本和所述对应的测试样本中最后一条样本消息的第二实例化标注信息,得到至少一组新增训练样本;
分别针对所述至少一组新增训练样本中的各组新增训练样本,将所述新增训练样本中的第一样本权重消息输入所述预训练元素分类模型,经所述预训练元素分类模型输出所述新增训练样本中最后一条样本消息对应的第三四元组预测信息;
基于所述第二实例化标注信息与所述第三四元组预测信息,对所述预训练元素分类模型进行迭代训练,直至达到第二预设训练完成条件,得到所述元素分类模型。
8.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现上述权利要求1-7任一所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该计算机程序指令被处理器执行时,实现上述权利要求1-7任一所述的方法。
10.一种计算机程序产品,包括计算机程序指令,其特征在于,该计算机程序指令被处理器执行时实现上述权利要求1-7任一所述的方法。
CN202210810625.9A 2022-07-11 2022-07-11 线上交互处理方法和装置、存储介质和程序产品 Active CN115186092B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210810625.9A CN115186092B (zh) 2022-07-11 2022-07-11 线上交互处理方法和装置、存储介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210810625.9A CN115186092B (zh) 2022-07-11 2022-07-11 线上交互处理方法和装置、存储介质和程序产品

Publications (2)

Publication Number Publication Date
CN115186092A true CN115186092A (zh) 2022-10-14
CN115186092B CN115186092B (zh) 2023-06-20

Family

ID=83517813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210810625.9A Active CN115186092B (zh) 2022-07-11 2022-07-11 线上交互处理方法和装置、存储介质和程序产品

Country Status (1)

Country Link
CN (1) CN115186092B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019106658A1 (en) * 2017-11-29 2019-06-06 Agt Global Media Gmbh System and method of generating media content and related data structures
CN110347792A (zh) * 2019-06-25 2019-10-18 腾讯科技(深圳)有限公司 对话生成方法及装置、存储介质、电子设备
CN110399460A (zh) * 2019-07-19 2019-11-01 腾讯科技(深圳)有限公司 对话处理方法、装置、设备及存储介质
CN110858226A (zh) * 2018-08-07 2020-03-03 北京京东尚科信息技术有限公司 对话管理方法和装置
CN111104495A (zh) * 2019-11-19 2020-05-05 深圳追一科技有限公司 基于意图识别的信息交互方法、装置、设备和存储介质
CN111198937A (zh) * 2019-12-02 2020-05-26 泰康保险集团股份有限公司 对话生成及装置、计算机可读存储介质、电子设备
CN111444399A (zh) * 2020-03-30 2020-07-24 腾讯科技(深圳)有限公司 回复内容的生成方法、装置、设备及可读存储介质
CN111639162A (zh) * 2020-06-03 2020-09-08 贝壳技术有限公司 信息交互方法和装置、电子设备和存储介质
CN111931507A (zh) * 2020-08-21 2020-11-13 贝壳技术有限公司 获取用于实现会话的多元组集合方法、装置、介质及设备
CN112115246A (zh) * 2020-08-14 2020-12-22 腾讯科技(深圳)有限公司 基于对话的内容推荐方法、装置、计算机设备及存储介质
CN112650768A (zh) * 2020-12-22 2021-04-13 网易(杭州)网络有限公司 对话信息的生成方法、装置及电子设备
CN112948534A (zh) * 2019-12-10 2021-06-11 中兴通讯股份有限公司 一种智能人机对话的交互方法、系统和电子设备
CN113360630A (zh) * 2021-08-11 2021-09-07 贝壳找房(北京)科技有限公司 交互信息提示方法
CN114118100A (zh) * 2021-11-24 2022-03-01 北京房江湖科技有限公司 用于生成对话语句的方法、装置、设备、介质和程序产品
CN114281962A (zh) * 2021-11-16 2022-04-05 南京美桥信息科技有限公司 基于机器人深度学习的智能对话系统、方法及存储介质

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019106658A1 (en) * 2017-11-29 2019-06-06 Agt Global Media Gmbh System and method of generating media content and related data structures
CN110858226A (zh) * 2018-08-07 2020-03-03 北京京东尚科信息技术有限公司 对话管理方法和装置
CN110347792A (zh) * 2019-06-25 2019-10-18 腾讯科技(深圳)有限公司 对话生成方法及装置、存储介质、电子设备
CN110399460A (zh) * 2019-07-19 2019-11-01 腾讯科技(深圳)有限公司 对话处理方法、装置、设备及存储介质
CN111104495A (zh) * 2019-11-19 2020-05-05 深圳追一科技有限公司 基于意图识别的信息交互方法、装置、设备和存储介质
CN111198937A (zh) * 2019-12-02 2020-05-26 泰康保险集团股份有限公司 对话生成及装置、计算机可读存储介质、电子设备
CN112948534A (zh) * 2019-12-10 2021-06-11 中兴通讯股份有限公司 一种智能人机对话的交互方法、系统和电子设备
CN111444399A (zh) * 2020-03-30 2020-07-24 腾讯科技(深圳)有限公司 回复内容的生成方法、装置、设备及可读存储介质
CN111639162A (zh) * 2020-06-03 2020-09-08 贝壳技术有限公司 信息交互方法和装置、电子设备和存储介质
CN112115246A (zh) * 2020-08-14 2020-12-22 腾讯科技(深圳)有限公司 基于对话的内容推荐方法、装置、计算机设备及存储介质
CN111931507A (zh) * 2020-08-21 2020-11-13 贝壳技术有限公司 获取用于实现会话的多元组集合方法、装置、介质及设备
CN112650768A (zh) * 2020-12-22 2021-04-13 网易(杭州)网络有限公司 对话信息的生成方法、装置及电子设备
CN113360630A (zh) * 2021-08-11 2021-09-07 贝壳找房(北京)科技有限公司 交互信息提示方法
CN114281962A (zh) * 2021-11-16 2022-04-05 南京美桥信息科技有限公司 基于机器人深度学习的智能对话系统、方法及存储介质
CN114118100A (zh) * 2021-11-24 2022-03-01 北京房江湖科技有限公司 用于生成对话语句的方法、装置、设备、介质和程序产品

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BAIZHEN LI 等: "Improved non-autoregressive dialog state tracking model", 《PROCEEDINGS OF 2021 2ND INTERNATIONAL CONFERENCE ON CONTROL, ROBOTICS AND INTELLIGENT SYSTEM》, pages 207 - 211 *
ICEBURG-BLOGS: "机器阅读理解(MRC)和问答(QA)在信息抽取中的应用", pages 1, Retrieved from the Internet <URL:https://blog.csdn.net/eagleuniversityeye/article/details/106965145> *
魏泽林 等: "基于知识图谱问答系统的技术实现", 《软件工程》, pages 38 - 44 *

Also Published As

Publication number Publication date
CN115186092B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
US11250033B2 (en) Methods, systems, and computer program product for implementing real-time classification and recommendations
US10572517B2 (en) Predicting intent of a user from anomalous profile data
US11948058B2 (en) Utilizing recurrent neural networks to recognize and extract open intent from text inputs
US10528329B1 (en) Methods, systems, and computer program product for automatic generation of software application code
US20190333512A1 (en) Customizing responses to users in automated dialogue systems
US11734519B2 (en) Systems and methods for slot relation extraction for machine learning task-oriented dialogue systems
CN114429133A (zh) 通过神经机器阅读理解依赖于话语分析来回答复杂问题
CN112262368A (zh) 自然语言到api转换
US20220100772A1 (en) Context-sensitive linking of entities to private databases
US11461420B2 (en) Referring expression generation
US20220100967A1 (en) Lifecycle management for customized natural language processing
US11645526B2 (en) Learning neuro-symbolic multi-hop reasoning rules over text
US20240062011A1 (en) Techniques for using named entity recognition to resolve entity expression in transforming natural language to a meaning representation language
Bhutani et al. Open information extraction from question-answer pairs
US20240061833A1 (en) Techniques for augmenting training data for aggregation and sorting database operations in a natural language to database query system
CN115989490A (zh) 用于为文本分类提供解释的技术
CN111949785A (zh) 查询语句管理方法和装置、可读存储介质、电子设备
EP4222635A1 (en) Lifecycle management for customized natural language processing
Wu et al. GCDST: A graph-based and copy-augmented multi-domain dialogue state tracking
US20230351184A1 (en) Query Classification with Sparse Soft Labels
Yuan et al. Deep learning from a statistical perspective
He et al. Semi-supervised dialogue abstractive summarization via high-quality pseudolabel selection
CN115248846B (zh) 文本识别方法、设备、介质
CN111382232A (zh) 问答信息处理方法、装置及计算机设备
CN115186092B (zh) 线上交互处理方法和装置、存储介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant