CN109783624A - 基于知识库的答案生成方法、装置和智能会话系统 - Google Patents

基于知识库的答案生成方法、装置和智能会话系统 Download PDF

Info

Publication number
CN109783624A
CN109783624A CN201811617454.8A CN201811617454A CN109783624A CN 109783624 A CN109783624 A CN 109783624A CN 201811617454 A CN201811617454 A CN 201811617454A CN 109783624 A CN109783624 A CN 109783624A
Authority
CN
China
Prior art keywords
knowledge
data
information
candidate
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811617454.8A
Other languages
English (en)
Inventor
刘欣然
李杨
胡长建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201811617454.8A priority Critical patent/CN109783624A/zh
Publication of CN109783624A publication Critical patent/CN109783624A/zh
Pending legal-status Critical Current

Links

Abstract

本公开提供了一种基于知识库的答案生成方法,应用于智能会话系统中,该智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息。该方法包括:获取输入语句数据;将所述输入语句数据分别与候选关系集和候选实体集进行匹配,其中,所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成;以及,根据匹配结果,输出答案数据。本公开还提供了一种基于知识库的答案生成装置和智能会话系统。

Description

基于知识库的答案生成方法、装置和智能会话系统
技术领域
本公开涉及一种基于知识库的答案生成方法、装置和智能会话系统。
背景技术
随着关系抽取,知识表示等知识图谱相关技术的发展,基于开放领域知识库的问答逐渐成为自然语言处理领域中的一个重要课题,其主流解决思路可分为基于语义句法分析和基于信息抽取两种。
现有基于知识库的问答系统中,往往将知识库中的知识数据看作一个整体进行语义分析或匹配,在特征提取不充分或训练数据不足时,容易出现失配,表现为尽管知识本身正确,但对用户输入“答非所问”,造成了最终答案选择的偏差。
发明内容
本公开的一个方面提供了一种基于知识库的答案生成方法,该方法应用于智能会话系统中,智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。所述知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息。上述方法包括:获取输入语句数据;将所述输入语句数据分别与候选关系集和候选实体集进行匹配,其中,所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成;以及,根据匹配结果,输出答案数据。
可选地,在上述将输入语句数据分别与候选关系集和候选实体集进行匹配之前,上述方法还包括:识别输入语句数据的关键实体信息;从所述知识库中获取包含所述关键实体信息的知识数据;以及,利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
可选地,上述将所述输入语句数据分别与候选关系集和候选实体集进行匹配包括:将所述输入语句数据与所述候选关系集进行第一匹配,得到与所述候选关系集中的各关联关系信息对应的第一匹配评分;将所述输入语句数据与所述候选实体集进行第二匹配,得到与所述候选实体集中的各知识实体信息对应的第二匹配评分;以及,基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据。则上述根据匹配结果,输出答案数据包括:将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据。
可选地,上述将所述输入语句数据与所述候选关系集进行第一匹配包括:获取所述输入语句数据的特征向量;获取所述候选关系集中的各关联关系信息的第一向量;以及,对于所述候选关系集中的任一关联关系信息,将该关联关系信息的第一向量与所述输入语句数据的特征向量输入第一匹配模型,基于所述第一匹配模型计算该关联关系信息的第一向量与所述输入语句数据的特征向量之间的第一匹配度。其中,所述第一匹配模型是利用多组由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对训练得到的。
可选地,第一匹配模型包括:基于孪生网络的句子编码模型,或者,引入注意力机制的基于信息交互的匹配模型。
可选地,上述将所述输入语句数据与所述候选实体集进行第二匹配包括:获取所述输入语句数据的特征向量;获取所述候选实体集中的各知识实体信息的第二向量;对于所述候选实体集中的任一知识实体信息,将该知识实体信息的封闭词向量与所述输入语句数据的特征向量输入第二匹配模型,基于所述第二匹配模型计算该知识实体信息的封闭词向量与所述输入语句数据的特征向量之间的第二匹配度。其中,第二匹配模型是利用多组由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对训练得到的。
可选地,上述基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据包括:对于任一知识数据,根据与所述知识数据中的关联关系信息对应的第一匹配评分和与所述知识数据中的知识实体信息对应的第二匹配评分计算所述知识数据的综合评分;以及,将综合评分最高的知识数据作为最优知识数据。上述将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据包括:将所述最优知识数据中的除所述关键实体信息之外的知识实体信息作为与所述输入语句数据对应的答案数据。
本公开的另一方面提供了一种基于知识库的答案生成装置,应用于智能会话系统中,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。所述知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息。上述装置包括第一获取模块、匹配模块和输出模块。第一获取模块用于获取输入语句数据。匹配模块用于将所述输入语句数据分别与候选关系集和候选实体集进行匹配,其中,所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成。以及,输出模块用于根据匹配结果,输出答案数据。
可选地,上述装置还包括:识别模块、第二获取模块和构建模块。识别模块用于在所述匹配模块将所述输入语句数据分别与候选关系集和候选实体集进行匹配之前,识别所述输入语句数据的关键实体信息。第二获取模块用于从所述知识库中获取包含所述关键实体信息的知识数据。以及,构建模块用于利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
可选地,匹配模块包括第一匹配子模块、第二匹配子模块和确定子模块。第一匹配子模块用于将所述输入语句数据与所述候选关系集进行第一匹配,得到与所述候选关系集中的各关联关系信息对应的第一匹配评分。第二匹配子模块用于将所述输入语句数据与所述候选实体集进行第二匹配,得到与所述候选实体集中的各知识实体信息对应的第二匹配评分。以及,确定子模块用于基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据。输出模块具体用于将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据。
可选地,第一匹配子模块具体用于获取所述输入语句数据的特征向量;获取所述候选关系集中的各关联关系信息的第一向量;以及,对于所述候选关系集中的任一关联关系信息,将该关联关系信息的第一向量与所述输入语句数据的特征向量输入第一匹配模型,基于所述第一匹配模型计算该关联关系信息的第一向量与所述输入语句数据的特征向量之间的第一匹配度。其中,所述第一匹配模型是利用多组由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对训练得到的。
可选地,第一匹配模型包括:基于孪生网络的句子编码模型,或者,引入注意力机制的基于信息交互的匹配模型。
可选地,第二匹配子模块具体用于获取所述输入语句数据的特征向量;获取所述候选实体集中的各知识实体信息的第二向量;对于所述候选实体集中的任一知识实体信息,将该知识实体信息的封闭词向量与所述输入语句数据的特征向量输入第二匹配模型,基于所述第二匹配模型计算该知识实体信息的封闭词向量与所述输入语句数据的特征向量之间的第二匹配度。其中,所述第二匹配模型是利用多组由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对训练得到的。
可选地,确定子模块具体用于对于任一知识数据,根据与所述知识数据中的关联关系信息对应的第一匹配评分和与所述知识数据中的知识实体信息对应的第二匹配评分计算所述知识数据的综合评分;以及,将综合评分最高的知识数据作为最优知识数据。输出模块具体用于将所述最优知识数据中的除所述关键实体信息之外的知识实体信息作为与所述输入语句数据对应的答案数据。
本公开的另一方面提供了一种智能会话系统,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息,所述智能会话系统包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开的实施例的基于知识库的答案生成方法、装置和智能会话系统的应用场景;
图2示意性示出了根据本公开的实施例的基于知识库的答案生成方法的流程图;
图3示意性示出了根据本公开的另一实施例的基于知识库的答案生成方法的流程图;
图4A示意性示出了根据本公开的实施例的特征抽取过程的示意图;
图4B示意性示出了根据本公开的实施例的模型训练和预测过程的示意图;
图5示意性示出了根据本公开的实施例的基于知识库的答案生成装置的框图;
图6示意性示出了根据本公开的另一实施例的基于知识库的答案生成装置的框图;以及
图7示意性示出了根据本公开的实施例的智能会话系统的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读存储介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。
本公开的实施例提供了一种基于知识库的答案生成方法、装置以及能够应用该方法的智能会话系统。该方法包括输入获取阶段、匹配阶段和答案输出阶段。输入获取阶段获取输入语句数据后进入匹配阶段,在匹配阶段,将输入语句数据分别与基于知识库得到的候选关系集和候选实体集进行匹配,答案输出阶段根据匹配阶段的匹配结果输出答案数据。
图1示意性示出了根据本公开的实施例的基于知识库的答案生成方法、装置和智能会话系统的应用场景。需要注意的是,图1所示仅为可以应用本公开实施例的场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,该应用场景可以包括终端设备101、102、103,网络104和服务器/服务器集群105。网络104用以在终端设备101、102、103和服务器/服务器集群105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器/服务器集群105交互,以输入问题并接收答案等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器/服务器集群105可以是提供各种服务的服务器或服务器集群,后台管理服务器或服务器集群可以对接收到的用户输入问题等数据进行分析等处理,并将相应的答案反馈给终端设备。
需要说明的是,本公开实施例所提供的基于知识库的答案生成方法一般可以由服务器/服务器集群105执行。相应地,本公开实施例所提供的基于知识库的答案生成装置一般可以设置于服务器/服务器集群105中。本公开实施例所提供的基于知识库的答案生成方法也可以由不同于服务器/服务器集群105且能够与终端设备101、102、103、和/或、服务器/服务器集群105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的基于知识库的答案生成装置也可以设置于不同于服务器/服务器集群105且能够与终端设备101、102、103、和/或、服务器/服务器集群105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器/服务器集群的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器/服务器集群。
图2示意性示出了根据本公开的实施例的基于知识库的答案生成方法的流程图。该方法应用于智能会话系统中,该智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。
如图2所示,该方法包括操作S201~S203。
在操作S201,获取输入语句数据。
其中,所述输入语句数据用于表征用户输入信息。
在操作S202,将所述输入语句数据分别与候选关系集和候选实体集进行匹配。
其中,知识库将人类知识组织成结构化的知识系统,如语言知识库WordNet、世界知识库Freebase等,知识库是推动人工智能学科发展和支撑只能信息服务应用(如智能搜索、智能问答、个性化推荐等)的重要基础技术。知识库描述现实世界中实体(Entity)间的关系(Relation),具体地,知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息。候选关系集由所述知识库中的知识数据的关联关系信息构成,候选实体集由所述知识库中的知识数据的知识实体信息构成。
在操作S203,根据匹配结果,输出答案数据。
可见,图2所示的方法将输入语句数据分别与候选关系集和候选实体集进行匹配,根据匹配结果输出与输入语句数据对应的答案数据,完成针对用户输入信息的答案生成过程。其中,由于候选关系集由所述知识库中的知识数据的关联关系信息构成,候选实体集由所述知识库中的知识数据的知识实体信息构成,即候选关系集和候选实体集从两个不同纬度表征了知识库中的知识数据的特征。基于这两个维度的特征与输入语句数据进行匹配,能够得到与输入语句数据逻辑关系相适配且实体内容相适配的知识数据,进而得到相应的答案数据,使得答案数据更加准确。
图3示意性示出了根据本公开的另一实施例的基于知识库的答案生成方法的流程图。该方法应用于智能会话系统中,该智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。
如图3所示,该方法包括操作操作S301~S306。
在操作S301,获取输入语句数据。
在操作S302,识别所述输入语句数据的关键实体信息。
其中,关键实体信息用于表征所述输入语句数据中最需要关注的实体,该实体具有确切的含义,构成输入语句数据的基础信息,如输入语句数据中的人名、地名、机构名、概念等。
在操作S303,从知识库中获取包含所述关键实体信息的知识数据。
其中,知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息,当一个知识数据中有一个知识实体信息为上述关键实体信息时,确定该知识数据包含上述关键实体信息。
在操作S304,利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
在操作S305,将所述输入语句数据分别与候选关系集和候选实体集进行匹配。
在操作S306,根据匹配结果,输出答案数据。
其中,操作S301、S305和S306分别与图2中操作S201、S202和S203对应相同,重复的部分不再赘述。
可见,图3所示的方法在将输入语句数据与候选关系集以及候选实体集进行匹配之前,先从知识库中获取与该输入语句数据相关联的知识数据,利用相关联的知识数据中的关联关系信息构建候选关系集,利用相关联的知识数据中的除关键实体信息之外的知识实体信息构建候选实体集,即筛选出与输入语句数据初步相关的候选关系集和候选实体集,提高后续匹配效率。
通常情况下,知识库中的知识数据可以用三元组(知识实体信息1,关联关系信息,知识实体信息2)来表示,对应于两个实体以及两个实体之间的关联关系,如一条知识“史记的作者是司马迁”在知识库中可以表示为一条知识数据(史记,作者,司马迁),其中“史记”是一个实体,“司马迁”是另一个实体,“作者”表示“史记”和“司马迁”之间的关联关系。对于一个输入语句数据“史记的作者是谁”,其中的关键实体信息为“史记”,从知识库中获取所有包含“史记”的知识数据,利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除“史记”之外的知识实体信息构建候选实体集。
在本公开的一个实施例中,操作S202或操作S305将所述输入语句数据分别与候选关系集和候选实体集进行匹配包括:将所述输入语句数据与所述候选关系集进行第一匹配,得到与所述候选关系集中的各关联关系信息对应的第一匹配评分。将所述输入语句数据与所述候选实体集进行第二匹配,得到与所述候选实体集中的各知识实体信息对应的第二匹配评分。以及,基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据。
在此基础上,操作S203或操作S306根据匹配结果,输出答案数据包括:将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据。
依据本实施例的方案,对于候选关系集中的每个关联关系信息,将输入语句数据与该关联关系信息进行第一匹配,得到与该关联关系信息对应的第一匹配评分,该第一匹配评分用于表征输入语句数据所表达的关系与该关联关系信息所表达的关系之间语义逻辑的匹配程度。例如,当输入语句数据为“史记的作者是谁”时,其表达的关系是“作者”,当一个关联关系信息为“作者”时,该关联关系信息与输入语句数据完全匹配,能够得到较高的第一匹配评分。以及,对于候选实体集中的每个知识实体信息,将输入语句数据与该知识实体信息进行第二匹配,得到与该知识实体信息对应的第二匹配评分,该第二匹配评分用于表征输入语句数据与该知识实体信息所表达的实体之间的应答关系的匹配程度。例如,当输入语句数据为“史记的作者是谁”时,当一个知识实体信息为“司马迁”时,该知识实体信息与输入语句数据完全匹配,能够得到较高的第二匹配评分。这样,基于与候选关系集中各关联关系信息对应的第一匹配评分和与候选实体集中各知识实体信息对应第二匹配评分能够得到知识库中与输入语句数据相关的各知识数据的综合评分,从而能够确定最优知识数据,再基于最优知识数据中的知识实体信息输出答案数据。
上述过程从关系和实体两个维度来考虑知识数据与输入语句数据是否相适配,与现有技术中基于知识数据整体进行语义分析或匹配的方向相比,可以避免挑选出关联关系信息的匹配度极高但知识实体信息的匹配度极低或者关联关系信息的匹配度极低但知识实体信息的匹配度极高的知识数据,避免出现“答非所问”的情况。
具体地,可以通过知识表示的方式将知识库中的知识数据中的知识实体信息和/或关联关系信息投影到低维向量空间,实现对知识实体信息和/或关联关系信息的语义信息的表示,进而高效地计算输入语句数据和候选关系集、以及输入语句数据和候选实体集之间的复杂语义关联。
作为一个可选的实施例,上述将输入语句数据与候选关系集进行第一匹配包括:获取输入语句数据的特征向量;获取候选关系集中的各关联关系信息的第一向量;以及,对于候选关系集中的任一关联关系信息,将该关联关系信息的第一向量与所述输入语句数据的特征向量输入第一匹配模型,基于所述第一匹配模型计算该关联关系信息的第一向量与所述输入语句数据的特征向量之间的第一匹配度。其中,所述第一匹配模型是利用多组由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对训练得到的。
其中,上述第一匹配模型可以是基于孪生网络的句子编码模型或者引入注意力机制的基于信息交互的匹配模型。
作为另一个可选的实施例,上述将输入语句数据与候选实体集进行第二匹配包括:获取输入语句数据的特征向量;获取候选实体集中的各知识实体信息的第二向量;对于所述候选关系集中的任一知识实体信息,将该知识实体信息的封闭词向量与所述输入语句数据的特征向量输入第二匹配模型,基于所述第二匹配模型计算该知识实体信息的封闭词向量与所述输入语句数据的特征向量之间的第二匹配度。其中,所述第二匹配模型是利用多组由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对训练得到的。
其中,输入语句数据由一个或多个词组成,获取输入语句数据所包含的各个词的词向量,由输入语句数据所包含的各个词的词向量构成该输入语句数据的特征向量。候选关系集中的各关联关系信息的第一向量可以是基于外部语料库训练得到的与关联关系信息对应的开放向量,也可以是基于知识表示模型(如TransE模型等)训练得到的关联关系信息相对于知识库的封闭向量。候选实体集中的各知识实体信息的第二向量可以是基于外部语料库训练得到的与知识实体信息对应的开放向量,也可以是基于知识表示模型(如TransE模型等)训练得到的知识实体信息相对于知识库的封闭向量。
可以看出,本实施例的方案融合了语义匹配和知识表示,基于翻译模型或神经网络的知识表示学习,能够将知识图谱映射到低维向量空间中,可以较好地把文本语义空间结合起来,充分扩展信息量,显著地提升知识获取的准确度,这种表示学习在知识推理、链路预测以及知识图谱补全等领域的有效性也已得到一定验证。在知识问答系统中,加入知识表示可以更加充分的利用知识图谱带来的信息,从而弥补了语义特征的不完全或不准确,提升问答系统效率。
在此基础上,在本公开的一个实施例中,上述基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据包括:对于任一知识数据,根据与所述知识数据中的关联关系信息对应的第一匹配评分和与所述知识数据中的知识实体信息对应的第二匹配评分计算所述知识数据的综合评分;以及,将综合评分最高的知识数据作为最优知识数据。则上述将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据包括:将所确定最优知识数据中的除所述关键实体信息之外的知识实体信息作为与所述输入语句数据对应的答案数据。
下面参考图4A~图4B,结合具体实施例对图2~图3所示的方法进行具体说明:
本公开实施例所提供的基于知识库的答案生成方案可以分为两个过程:融合语义匹配和知识表示的特征抽取过程和答案生成过程,其中答案生成过程包括模型训练过程和预测过程。
图4A示意性示出了根据本公开的实施例的特征抽取过程的示意图。
对于智能会话系统,首先定义知识库B={b1,b2,...,bbase size},其中知识三元组b=(EntSub,Rel,EntObj),其中EntSub为基础知识实体信息,EntObj为目标知识实体信息,Rel为目标知识实体信息相对于基础知识实体信息的关联关系信息。例如,知识“史记的作者是司马迁”可在知识库中表示为三元组b=(史记,作者,司马迁)。将实体与关系都看作一个基本的词单位,根据外部语料库可训练得出词向量SVw,并作为知识实体信息和关联关系信息的语义表示SVEnt、SVRel。对整个知识库进行知识表示学习,从而获取知识实体信息的向量表示,如利用知识表示模型(如TransE模型等),可训练得到知识库中知识实体信息的向量化表示KVEnt
如图4A所示,获取输入语句数据,本例中输入语句数据表征用户输入的问题。在特征抽取部分,首先利用预先训练好的词向量,将输入语句数据转化为分布式表示,具体地,输入问题单词序列为Q={w1,w2,...,wn),利用预先训练好的词向量SVw获取问题的特征SVQ。并且,提取出输入语句数据中的关键实体信息EntTopic。在输入问句Q中识别出关键实体并将其链接至知识库中对应实体EntTopic,在知识库中抽取与关键实体信息EntTopic相关的知识数据三元组BTopic={b1,b2,...,bTopic size},其中涉及到的相关知识实体信息组成候选实体集:EntCandidate=(Ent1,Ent2,...,Entm),其对应的关联关系信息组成候选关系集:RelCandidate=(Rel1,Rel2,...,Relm)。基于知识库中关联关系信息的语义表示SVRel,可以获得候选关系集对应的第一向量SVRel_Candidate,基于知识库中知识实体信息的向量化表示KVEnt,可以获得候选实体集对应的第二向量KVEnt_Candidate
例如,对于输入语句数据“史记是谁写的”在进行特征提取后,输入语句数据可表示为问题特征向量SVQ,对于关键实体EntTopic=史记,在知识库中抽取相关三元组:B史记={(史记,作者,司马迁),(史记,创作年代,西汉),(史记,文学体裁,纪传体),…}。
候选实体集为EntCandidate=(司马迁,西汉,纪传体,...),其对应的向量化表示为KVEnt_Candidate=(KV司马迁,KV西汉,KV纪传体,…)。候选关系集为RelCandidate=(作者,创作年代,文学体裁,...),其对应的语义向量表示为SVRel_Candidate=(SV作者,SV创作年代,SV文学体裁,...)。问题特征向量SVQ,候选实体集的向量化表示KVEnt_Candidate和候选关系集的语义向量表示SVRel_Candidate,组成了用于下一步匹配模型训练的特征集合。
图4B示意性示出了根据本公开的实施例的模型训练和预测过程的示意图。
在模型训练过程,以给定知识库中的部分问答对作为训练集,基于“问题-关系”样本对训练得到第一匹配模型(“问题-关系”模型)与基于“问题-答案”样本对训练得到第二匹配模型(“问题-实体”模型)。其中,“问题-关系”样本对是指由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对,“问题-答案”样本对是指由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对。
如图4B所示,在第一匹配模型的训练中,重点在于将整个输入语句数据的语义信息与表示关系的关联关联信息的特征语义进行匹配,捕捉输入语句数据中涉及关键逻辑的特征,如例子中“谁写的”与候选关系“作者”的语义关联。此处进行匹配的仅仅是候选三元组中的关系特征,而不涉及候选三元组中答案“司马迁”的实体特征,这是由于在本方案将关系和实体用不同的分布式表示方法,以获取更全面的特征信息。第一匹配模型可采用基于孪生网络的句子编码模型(如InferSent,SSE等),基于向量间的距离计算问句与关系的语义关系,采用基于信息交互的匹配模型(如ESIM),利用注意力机制获取更多词级别的交互信息。
第二匹配模型则希望训练为一个分类器,使输入语句数据的语义信息与正确的知识实体信息的向量化表示匹配得到更高的得分。由于知识实体信息的向量化表示由知识库中的三元组训练而来,这些分布式表示在一定程度上能够在较低维度上表示知识,结合输入语句数据的语义信息,可以获取输入语句数据和相应可以作为答案的知识实体信息的一些组合特征,如输入语句数据中“谁写的”与对应知识实体信息“司马迁”的组合。与第一匹配模型不同的是,通过知识实体信息的向量化表示与输入语句数据进行匹配更侧重于获取输入语句数据中“谁”与“人”的关系,即通过训练,分类器使问句“谁写的”与“司马迁”或其他“人”相应的知识实体信息的得分会更高,而非“西汉”,“纪传体”等其他类别的信息。
在模型预测过程中,在给出输入语句数据后,通过关键实体信息识别与链接,在知识库中抽取出相关知识数据,基于该知识数据获取候选关系集和候选实体集,获取输入语句数据的特征向量SVQ、候选关系集的语义向量表示SVRel_Candidate以及候选实体集的向量化表示KVEnt_Candidate,将SVQ和SVRel_Candidate输入第一匹配模型,得到候选关系预测,基于候选关系预测得到第一候选知识数据三元组排名。将SVQ和KVEnt_Candidate输入第二匹配模型,得到候选答案评分,基于候选答案评分得到第二候选知识数据三元组排名。基于第一候选知识数据三元组排名和第二候选知识数据三元组排名对其中候选关系和实体同时进行筛选排序,得到最优知识数据三元组,将该最优知识数据三元组中除关键实体信息之外的知识实体信息作为最优答案。
在上述过程中,尽管第一匹配模型的预测结果可以包含其他类似的关联关系信息,和/或,第二匹配模型的分类结果可能包含了其他关于“人”的非答案知识实体信息,如“司马贞”,但由于预测的结果为两个匹配模型的综合排序,本实施例的方案仍然可以结合“问题-关系”匹配模型,对与“司马贞”对应的关联关系信息“注释者”进行过滤,使最终“(史记,作者,司马迁)”的候选三元组排序在“(史记,注释者,司马贞)”之前。最终得到针对于输入语句数据“史记是谁写的”的最优答案“司马迁”。
综上所述,本公开实施例提供的基于知识库的答案生成方案针对基于信息抽取的知识库问答系统提出改进方案,不再将候选答案三元组(关键实体信息,候选关联关系信息,候选知识实体信息)作为一个整体,而是分别考虑问题中分别与关键实体信息对应的候选关系集和候选实体集,与候选关系集的匹配过程用于识别关系,与候选实体集的匹配过程用于识别答案,将答案生成过程进一步细分为对关系的识别和对答案的选择。在进行问题中关系的识别时,训练过程侧重于问句特征与候选关系的语义匹配。在进行问题答案的筛选时,练过程侧重于使问句与正确答案实体分布式表达的得分尽量高,从而筛选出更有可能成为正确答案的实体。以候选关系与候选答案的共同排名作为最终答案的选择的依据,能够生成针对输入语句数据的更为准确的答案并输出。
图5示意性示出了根据本公开的实施例的基于知识库的答案生成装置的框图。该基于知识库的答案生成装置应用于智能会话系统中,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息。
如图5所示,基于知识库的答案生成装置500包括:第一获取模块510、匹配模块520和输出模块530。
第一获取模块510用于获取输入语句数据。
匹配模块520用于将所述输入语句数据分别与候选关系集和候选实体集进行匹配。
其中,知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息。所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成。
输出模块530用于根据匹配结果,输出答案数据。
图6示意性示出了根据本公开的另一实施例的基于知识库的答案生成装置的框图。如图6所示,基于知识库的答案生成装置600包括:第一获取模块510、匹配模块520、输出模块530、识别模块540、第二获取模块550和构建模块560。
识别模块540用于在匹配模块520将所述输入语句数据分别与候选关系集和候选实体集进行匹配之前,识别所述输入语句数据的关键实体信息。
第二获取模块550用于从所述知识库中获取包含所述关键实体信息的知识数据。
以及,构建模块560用于利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
在本公开的一个实施例中,匹配模块520包括第一匹配子模块521、第二匹配子模块522和确定子模块523。第一匹配子模块521用于将输入语句数据与所述候选关系集进行第一匹配,得到与所述候选关系集中的各关联关系信息对应的第一匹配评分。第二匹配子模块522用于将所述输入语句数据与所述候选实体集进行第二匹配,得到与所述候选实体集中的各知识实体信息对应的第二匹配评分。以及,确定子模块523用于基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据。输出模块具体用于将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据。
作为一个可选的实施例,第一匹配子模块521具体用于获取所述输入语句数据的特征向量;获取所述候选关系集中的各关联关系信息的第一向量;以及,对于所述候选关系集中的任一关联关系信息,将该关联关系信息的第一向量与所述输入语句数据的特征向量输入第一匹配模型,基于所述第一匹配模型计算该关联关系信息的第一向量与所述输入语句数据的特征向量之间的第一匹配度。其中,所述第一匹配模型是利用多组由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对训练得到的。
可选地,上述第一匹配模型可以包括:基于孪生网络的句子编码模型,或者,引入注意力机制的基于信息交互的匹配模型。
作为另一个可选的实施例,第二匹配子模块522具体用于获取所述输入语句数据的特征向量;获取所述候选实体集中的各知识实体信息的第二向量;对于所述候选实体集中的任一知识实体信息,将该知识实体信息的封闭词向量与所述输入语句数据的特征向量输入第二匹配模型,基于所述第二匹配模型计算该知识实体信息的封闭词向量与所述输入语句数据的特征向量之间的第二匹配度。其中,所述第二匹配模型是利用多组由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对训练得到的。
在本公开的一个实施例中,确定子模块523具体用于对于任一知识数据,根据与所述知识数据中的关联关系信息对应的第一匹配评分和与所述知识数据中的知识实体信息对应的第二匹配评分计算所述知识数据的综合评分;以及,将综合评分最高的知识数据作为最优知识数据。输出模块具体用于将所述最优知识数据中的除所述关键实体信息之外的知识实体信息作为与所述输入语句数据对应的答案数据。
需要说明的是,装置部分实施例中各模块/单元/子单元等的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块510、匹配模块520、输出模块530、识别模块540、第二获取模块550和构建模块560中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一获取模块510、匹配模块520、输出模块530、识别模块540、第二获取模块550和构建模块560中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块510、匹配模块520、输出模块530、识别模块540、第二获取模块550和构建模块560中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图7示意性示出了根据本公开的实施例的适于实现上文描述的方法的智能会话系统的框图。图7示出的智能会话系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,智能会话系统700包括处理器710和计算机可读存储介质720。该智能会话系统700可以执行根据本公开实施例的方法。
具体地,处理器710例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器710还可以包括用于缓存用途的板载存储器。处理器710可以是用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
计算机可读存储介质720,例如可以是非易失性的计算机可读存储介质,具体示例包括但不限于:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;等等。
计算机可读存储介质720可以包括计算机程序721,该计算机程序721可以包括代码/计算机可执行指令,其在由处理器710执行时使得处理器710执行根据本公开实施例的方法或其任何变形。
计算机程序721可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序721中的代码可以包括一个或多个程序模块,例如包括721A、模块721B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器710执行时,使得处理器710可以执行根据本公开实施例的方法或其任何变形。
根据本发明的实施例,第一获取模块510、匹配模块520、输出模块530、识别模块540、第二获取模块550和构建模块560中的至少一个可以实现为参考图7描述的计算机程序模块,其在被处理器710执行时,可以实现上文所述的基于知识库的答案生成方法。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。

Claims (10)

1.一种基于知识库的答案生成方法,应用于智能会话系统中,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息,所述知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息,所述方法包括:
获取输入语句数据;
将所述输入语句数据分别与候选关系集和候选实体集进行匹配,其中,所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成;以及
根据匹配结果,输出答案数据。
2.根据权利要求1所述的方法,其中,在所述将所述输入语句数据分别与候选关系集和候选实体集进行匹配之前,所述方法还包括:
识别所述输入语句数据的关键实体信息;
从所述知识库中获取包含所述关键实体信息的知识数据;以及
利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
3.根据权利要求1或2所述的方法,其中:
所述将所述输入语句数据分别与候选关系集和候选实体集进行匹配包括:
将所述输入语句数据与所述候选关系集进行第一匹配,得到与所述候选关系集中的各关联关系信息对应的第一匹配评分;
将所述输入语句数据与所述候选实体集进行第二匹配,得到与所述候选实体集中的各知识实体信息对应的第二匹配评分;以及
基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据;
所述根据匹配结果,输出答案数据包括:将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据。
4.根据权利要求3所述的方法,其中,所述将所述输入语句数据与所述候选关系集进行第一匹配包括:
获取所述输入语句数据的特征向量;
获取所述候选关系集中的各关联关系信息的第一向量;以及
对于所述候选关系集中的任一关联关系信息,将该关联关系信息的第一向量与所述输入语句数据的特征向量输入第一匹配模型,基于所述第一匹配模型计算该关联关系信息的第一向量与所述输入语句数据的特征向量之间的第一匹配度,
其中,所述第一匹配模型是利用多组由问题样本数据和与该问题样本数据对应的关系样本数据组成的样本对训练得到的。
5.根据权利要求4所述的方法,其中,所述第一匹配模型包括:基于孪生网络的句子编码模型,或者,引入注意力机制的基于信息交互的匹配模型。
6.根据权利要求3所述的方法,其中,所述将所述输入语句数据与所述候选实体集进行第二匹配包括:
获取所述输入语句数据的特征向量;
获取所述候选实体集中的各知识实体信息的第二向量;以及
对于所述候选实体集中的任一知识实体信息,将该知识实体信息的封闭词向量与所述输入语句数据的特征向量输入第二匹配模型,基于所述第二匹配模型计算该知识实体信息的封闭词向量与所述输入语句数据的特征向量之间的第二匹配度,
其中,所述第二匹配模型是利用多组由问题样本数据和与该问题样本数据对应的答案样本数据组成的样本对训练得到的。
7.根据权利要求3所述的方法,其中:
所述基于所述第一匹配评分和所述第二匹配评分,确定最优知识数据包括:
对于任一知识数据,根据与所述知识数据中的关联关系信息对应的第一匹配评分和与所述知识数据中的知识实体信息对应的第二匹配评分计算所述知识数据的综合评分;以及
将综合评分最高的知识数据作为最优知识数据;
所述将所述最优知识数据中的知识实体信息作为与所述输入语句数据对应的答案数据包括:将所述最优知识数据中的除所述关键实体信息之外的知识实体信息作为与所述输入语句数据对应的答案数据。
8.一种基于知识库的答案生成装置,应用于智能会话系统中,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息,所述知识库包括多条知识数据,所述知识数据包括知识实体信息以及所述知识实体信息的关联关系信息,所述装置包括:
第一获取模块,用于获取输入语句数据;
匹配模块,用于将所述输入语句数据分别与候选关系集和候选实体集进行匹配,其中,所述候选关系集由所述知识库中的知识数据的关联关系信息构成,所述候选实体集由所述知识库中的知识数据的知识实体信息构成;以及
输出模块,用于根据匹配结果,输出答案数据。
9.根据权利要求1所述的装置,还包括:
识别模块,用于在所述匹配模块将所述输入语句数据分别与候选关系集和候选实体集进行匹配之前,识别所述输入语句数据的关键实体信息;
第二获取模块,用于从所述知识库中获取包含所述关键实体信息的知识数据;以及
构建模块,用于利用所获取的知识数据中的关联关系信息构建候选关系集,利用所获取的知识数据中的除所述关键实体信息之外的知识实体信息构建候选实体集。
10.一种智能会话系统,所述智能会话系统能够对接收到的输入信息进行响应并提供反馈信息,所述智能会话系统包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时用于实现如权利要求1~7中任一项所述的基于知识库的答案生成方法。
CN201811617454.8A 2018-12-27 2018-12-27 基于知识库的答案生成方法、装置和智能会话系统 Pending CN109783624A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811617454.8A CN109783624A (zh) 2018-12-27 2018-12-27 基于知识库的答案生成方法、装置和智能会话系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811617454.8A CN109783624A (zh) 2018-12-27 2018-12-27 基于知识库的答案生成方法、装置和智能会话系统

Publications (1)

Publication Number Publication Date
CN109783624A true CN109783624A (zh) 2019-05-21

Family

ID=66498597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811617454.8A Pending CN109783624A (zh) 2018-12-27 2018-12-27 基于知识库的答案生成方法、装置和智能会话系统

Country Status (1)

Country Link
CN (1) CN109783624A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674272A (zh) * 2019-09-05 2020-01-10 科大讯飞股份有限公司 一种问题答案确定方法及相关装置
CN110991183A (zh) * 2019-12-06 2020-04-10 北京百度网讯科技有限公司 问题的谓词确定方法、装置、设备及存储介质
CN111737430A (zh) * 2020-06-16 2020-10-02 北京百度网讯科技有限公司 实体链接方法、装置、设备以及存储介质
CN111753055A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 一种客户问答自动提示方法及装置
CN111814466A (zh) * 2020-06-24 2020-10-23 平安科技(深圳)有限公司 基于机器阅读理解的信息抽取方法、及其相关设备
CN113157861A (zh) * 2021-04-12 2021-07-23 山东新一代信息产业技术研究院有限公司 一种融合Wikipedia的实体对齐方法
CN114238611A (zh) * 2021-12-23 2022-03-25 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824115A (zh) * 2014-02-28 2014-05-28 中国科学院计算技术研究所 面向开放网络知识库的实体间关系推断方法及系统
CN106649550A (zh) * 2016-10-28 2017-05-10 浙江大学 一种基于代价敏感学习的联合知识嵌入方法
US20170206897A1 (en) * 2016-01-18 2017-07-20 Alibaba Group Holding Limited Analyzing textual data
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824115A (zh) * 2014-02-28 2014-05-28 中国科学院计算技术研究所 面向开放网络知识库的实体间关系推断方法及系统
US20170206897A1 (en) * 2016-01-18 2017-07-20 Alibaba Group Holding Limited Analyzing textual data
CN106649550A (zh) * 2016-10-28 2017-05-10 浙江大学 一种基于代价敏感学习的联合知识嵌入方法
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674272A (zh) * 2019-09-05 2020-01-10 科大讯飞股份有限公司 一种问题答案确定方法及相关装置
CN110674272B (zh) * 2019-09-05 2022-12-06 科大讯飞股份有限公司 一种问题答案确定方法及相关装置
CN110991183A (zh) * 2019-12-06 2020-04-10 北京百度网讯科技有限公司 问题的谓词确定方法、装置、设备及存储介质
CN110991183B (zh) * 2019-12-06 2023-07-04 北京百度网讯科技有限公司 问题的谓词确定方法、装置、设备及存储介质
CN111737430A (zh) * 2020-06-16 2020-10-02 北京百度网讯科技有限公司 实体链接方法、装置、设备以及存储介质
CN111737430B (zh) * 2020-06-16 2024-04-05 北京百度网讯科技有限公司 实体链接方法、装置、设备以及存储介质
CN111814466A (zh) * 2020-06-24 2020-10-23 平安科技(深圳)有限公司 基于机器阅读理解的信息抽取方法、及其相关设备
CN111753055A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 一种客户问答自动提示方法及装置
CN111753055B (zh) * 2020-06-28 2024-01-26 中国银行股份有限公司 一种客户问答自动提示方法及装置
CN113157861A (zh) * 2021-04-12 2021-07-23 山东新一代信息产业技术研究院有限公司 一种融合Wikipedia的实体对齐方法
CN114238611A (zh) * 2021-12-23 2022-03-25 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备以及存储介质

Similar Documents

Publication Publication Date Title
CN109783624A (zh) 基于知识库的答案生成方法、装置和智能会话系统
CN111026842B (zh) 自然语言处理方法、自然语言处理装置及智能问答系统
Bruni et al. Multimodal distributional semantics
CN110582762A (zh) 自动响应服务器装置、终端装置、响应系统、响应方法及程序
CN109325148A (zh) 生成信息的方法和装置
CN110446063A (zh) 视频封面的生成方法、装置及电子设备
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN112149400B (zh) 一种数据处理方法、装置、设备及存储介质
CN111611436A (zh) 一种标签数据处理方法、装置以及计算机可读存储介质
CN110168535A (zh) 一种信息处理方法及终端、计算机存储介质
CN110209774A (zh) 处理会话信息的方法、装置及终端设备
CN110166650A (zh) 视频集的生成方法及装置、计算机设备与可读介质
CN110895568B (zh) 处理庭审记录的方法和系统
CN110489747A (zh) 一种图像处理方法、装置、存储介质及电子设备
CN113704460A (zh) 一种文本分类方法、装置、电子设备和存储介质
CN110309114A (zh) 媒体信息的处理方法、装置、存储介质和电子装置
CN110225368A (zh) 一种视频定位方法、装置及电子设备
CN113486173A (zh) 文本标注神经网络模型及其标注方法
CN114661951A (zh) 一种视频处理方法、装置、计算机设备以及存储介质
CN116127080A (zh) 描述对象的属性值提取方法及相关设备
CN111931503B (zh) 信息抽取方法及装置、设备、计算机可读存储介质
CN113011126A (zh) 文本处理方法、装置、电子设备及计算机可读存储介质
CN114491152B (zh) 一种摘要视频的生成方法、存储介质、电子装置
CN113763925B (zh) 语音识别方法、装置、计算机设备及存储介质
CN113822521A (zh) 题库题目的质量检测方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190521

RJ01 Rejection of invention patent application after publication