CN116578684A - 基于知识图谱的问答方法、装置以及相关设备 - Google Patents
基于知识图谱的问答方法、装置以及相关设备 Download PDFInfo
- Publication number
- CN116578684A CN116578684A CN202310587486.2A CN202310587486A CN116578684A CN 116578684 A CN116578684 A CN 116578684A CN 202310587486 A CN202310587486 A CN 202310587486A CN 116578684 A CN116578684 A CN 116578684A
- Authority
- CN
- China
- Prior art keywords
- vector
- sentence
- question
- text
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 239000013598 vector Substances 0.000 claims abstract description 321
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003993 interaction Effects 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种基于知识图谱的问答方法、装置以及相关设备,涉及自然语言处理技术领域。该方法包括:获取问题文本;对问题文本进行处理,得到问题文本中每个语句的语句向量;将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。本公开能够在一定程度上克服由于相关技术中自然语言问题与知识图谱中的实体缺乏编码信息交互的问题。
Description
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种基于知识图谱的问答方法、装置以及相关设备。
背景技术
现有的模型主要是将问题编码与知识图谱分离,即序列到序列任务或知识图谱嵌入任务,缺乏问题与知识图谱中的实体之间的编码信息的交互,并且,现有模型算法只考虑在每一跳上将问题编码与关系嵌入进行匹配。这些工作无法处理知识图谱中复杂的关系类型,如一对多关系,这在关系编码中使得推理能力受到了限制。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种基于知识图谱的问答方法、装置以及相关设备,至少在一定程度上克服由于相关技术中自然语言问题与知识图谱中的实体缺乏编码信息交互的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种基于知识图谱的问答方法,该方法包括:获取问题文本,其中,所述问题文本包括:一个或多个语句;对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量;将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,所述知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本。
在本公开的一些示例性实施例中,基于前述方案,对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量,包括:对所述问题文本进行分词处理,获得分词结果;通过词向量模型对所述分词结果进行处理,得到所述问题文本中的每个语句中各个词的词向量;对所述问题文本中的每个语句中各个词的词向量进行加权平均,得到所述问题文本中每个语句的语句向量。
在本公开的一些示例性实施例中,基于前述方案,在将每个语句的语句向量与知识图谱向量模型进行匹配之前,所述方法还包括:将所述预先构建的实体关系知识图谱中的实体和实体之间关系进行向量化,得到所述知识图谱向量模型。
在本公开的一些示例性实施例中,基于前述方案,在将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本之前,所述方法还包括:对预先构建的神经网络进行训练,得到所述问答模型。
在本公开的一些示例性实施例中,基于前述方案,根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量,包括:将所述问题文本中每个语句的语句向量与对应的所述实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量。
在本公开的一些示例性实施例中,基于前述方案,在将所述问题文本中每个语句的语句向量与对应的所述实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量之前,所述方法还包括:对双向长短期记忆网络LSTM进行训练,得到所述联合模型。
在本公开的一些示例性实施例中,基于前述方案,在所述问题文本包括多个语句的情况下,对所述问题文本进行处理,得到多个语句向量,将所述多个语句向量存储于语句查询模块中,所述语句查询模块用于查询任意所述语句向量。
根据本公开的另一个方面,还提供了一种基于知识图谱的问答装置,该装置包括:问题获取模块,用于获取问题文本,其中,所述问题文本包括:一个或多个语句;向量处理模块,用于对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量;实体向量匹配模块,用于将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,所述知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;联合向量生成模块,用于根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;答案输出模块,用于将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本。
根据本公开的再一个方面,还提供了一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项基于知识图谱的问答方法。
根据本公开的又一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项基于知识图谱的问答方法。
本公开的实施例中提供的基于知识图谱的问答方法、装置以及相关设备,首先,获取问题文本,该问题文本包括:一个或多个语句;其次,对问题文本进行处理,得到问题文本中每个语句的语句向量;然后,将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量;再根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;最后,将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。本公开实施例根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量,而联合向量是包括每个语句的语句向量以及该语句对应的实体向量的信息,避免了现有技术中的知识图谱模型缺乏问题与知识图谱中的实体之间的编码信息交互的问题,进一步地,本公开实施例将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出的对应答案文本集成了问题文本中的语句向量和对应的实体向量,也就是问题编码信息与知识图谱向量模型中的实体向量相结合,能够处理更复杂的问题,显著提高了多跳问答的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种基于知识图谱的问答系统结构的示意图;
图2示出本公开实施例中一种基于知识图谱的问答方法示意图;
图3示出本公开实施例中一种语句向量的处理流程示意图;
图4示出本公开实施例中一种问答模型输出流程示意图;
图5示出本公开实施例中一种基于知识图谱的问答方法具体流程示意图;
图6示出本公开实施例中一种基于知识图谱的问答装置示意图;
图7示出本公开实施例中一种基于知识图谱的问答方法的电子设备示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1是本申请一个示例性实施例提供的计算机系统的结构示意图。该系统包括:若干个终端120和服务器集群140。
终端120可以是手机、游戏主机、平板电脑、电子书阅读器、智能眼镜、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、智能家居设备、AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备等移动终端,或者,终端120也可以是个人计算机(Personal Computer,PC),比如膝上型便携计算机和台式计算机等等。
其中,终端120中可以安装有用于提供答案文本的应用程序。
终端120与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
服务器集群140是一台服务器,或者由若干台服务器组成,或者是一个虚拟化平台,或者是一个云计算服务中心。服务器集群140用于为提供答案文本的应用程序提供后台服务。可选地,服务器集群140承担主要计算工作,终端120承担次要计算工作;或者,服务器集群140承担次要计算工作,终端120承担主要计算工作;或者,终端120和服务器集群140之间采用分布式计算架构进行协同计算。
可选地,不同的终端120中安装的应用程序的客户端是相同的,或两个终端120上安装的应用程序的客户端是不同控制系统平台的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端或者全球广域网(World Wide Web,Web)客户端等。
本领域技术人员可以知晓,上述终端120的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
可选的,该系统还可以包括管理设备(图1未示出),该管理设备与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
下面,将结合附图及实施例对本示例实施方式中的基于知识图谱的问答方法的各个步骤进行更详细的说明。
图2示出本公开实施例中一种基于知识图谱的问答方法流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行,例如如图2中的终端120和/或服务器集群140。在下面的举例说明中,以服务器集群140为执行主体进行示例说明。
首先,本公开实施例中提供了一种可以应用但不限于基于知识图谱的问答方法,该问答方法可以通过生成包括每个语句的语句向量以及该语句对应的实体向量的联合向量,避免了现有技术中的知识图谱模型缺乏问题与知识图谱中的实体之间的编码信息交互的问题。
图2示出本公开实施例中一种基于知识图谱的问答方法示意图,如图2所示,本公开实施例中提供的基于知识图谱的问答方法,该方法包括如下步骤:
S201,获取问题文本,其中,问题文本包括:一个或多个语句。
在一些实施例中,上述问题文本可以是待回答的一个或多个问题的文本集合,该文本中可以包括一个或多个问题语句。
S202,对问题文本进行处理,得到问题文本中每个语句的语句向量。
在一些实施例中,对问题文本进行处理就是对步骤S201中获取的一个或问题语句进行分词、向量化处理等,最终得到问题文本中每个问题语句的向量。
在一些实施例中,本公开实施例对问题文本进行处理,得到问题文本中每个语句的语句向量的具体过程如图3所示,具体过程包括:
S2301,对问题文本进行分词处理,获得分词结果;
S2302,通过词向量模型对分词结果进行处理,得到问题文本中的每个语句中各个词的词向量;
S2303,对问题文本中的每个语句中各个词的词向量进行加权平均,得到问题文本中每个语句的语句向量。
具体地,例如,本公开实施例给定了一个问题文本,该问题文本中有一个语句,也就是说,只有一个自然语言问题语句Q,首先,对该自然语言问题语句Q进行分词处理,得到n个单词,即自然语言问题语句Q={w1,w2,w3,…,wn},其中,w1,w2,w3,…,wn为自然语言问题语句Q的分词结果;然后,使用预训练的词向量Glove(Global Vectors for WordRepresentation,全局词向量)模型,将上述自然语言问题语句Q的分词结果输入至Glove模型,输出得到自然语言问题语句Q的词向量,最后,对自然语言问题语句Q的所有词向量进行加权平均,得到自然语言问题语句Q的语句向量q。
进一步地,本公开实施例将得到问题文本中每个语句的语句向量存储在语句查询模块中,可以通过句查询模块查询到所需的语句向量,对所需的语句向量进行处理,不仅更加方便查询到每个语句向量,还可以重点关注到所需语句向量,方便进行下一步处理。
S203,将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型。
在一些实施例中,上述每个语句的语句向量为问题文本中的问题语句的向量化表示,将问题文本中每个语句的语句向量与知识图谱向量模型中的实体向量进行匹配,得到每个语句对应的实体向量。
进一步地,在将每个语句的语句向量与知识图谱向量模型进行匹配之前,需要对预先构建的实体关系知识图谱中的实体和实体之间关系进行向量化,得到知识图谱向量模型,而由于搜索空间非常大,因此本公开实施例使用实体之间关系向量来初始化实体向量。
S204,根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量。
在一些实施例中,将步骤S203中的获得的问题文本中的语句进行向量化处理得到的语句向量,与每个语句向量对应的实体向量进行处理,生成每个语句向量对应的联合向量,其中,联合向量是包括问题文本中的语句的问题信息与对应的知识图谱实体信息,缓解了现有技术中自然语言问题与知识图谱中的实体缺乏编码信息交互的问题。
更为详细地,将问题文本中每个语句的语句向量与对应的实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量。
进一步地,为了构建自然语言问题与知识图谱中的实体向量信息之间的交互,在将问题文本中每个语句的语句向量与对应的实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量之前,本公开实施例需要对双向LSTM进行训练,得到联合模型。
S205,将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。
在一些实施例中,将每个语句对应的包括问题文本中的语句的问题信息与对应的知识图谱实体信息的联合向量输入到预先训练好的问答模型中,从而输出与问题文本对应的答案文本。
进一步地,本公开实施例需要对预先构建的神经网络进行训练,从而得到问答模型,进而将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出与问题文本对应的答案文本。
本公开实施例中的基于知识图谱的问答方法,首先,获取问题文本,该问题文本包括:一个或多个语句;其次,对问题文本进行处理,得到问题文本中每个语句的语句向量;然后,将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量;再根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;最后,将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。本公开实施例根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量,而联合向量是包括每个语句的语句向量以及该语句对应的实体向量的信息,避免了现有技术中的知识图谱模型缺乏问题与知识图谱中的实体之间的编码信息交互的问题,进一步地,本公开实施例将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出的对应答案文本集成了问题文本中的语句向量和对应的实体向量,也就是问题编码信息与知识图谱向量模型中的实体向量相结合,能够处理更复杂的问题,显著提高了多跳问答的准确率。
更为具体地,本公开实施例采用GNN(Graph Neural Networks,图神经网络)的方式构建了本公开实施例中的问答模型,将问题文本中的每个语句向量对应的联合向量输入至问答模型中,得到问题文本对应的答案文本。具体地,本公开实施例中的问答模型得到问题文本对应的答案文本的步骤如图4所示,具体步骤包括:
S401,计算知识图谱向量模型中实体和实体之间关系的向量与任意语句向量之间的相关性,例如,本公开实施例想得到问题文本中第k个句语句向量,也就是qk,即第k个语句对应的语句向量qk与知识图谱向量模型中实体和实体之间关系的向量做点积;
S402,通过预设激活函数,获取与第k句语句向量qk相匹配的每个三元组的重要度得分;
S403,对第k个句语句向量qk相匹配的每个三元组的重要度得分进行聚合,得到第k个句语句向量qk的重要性信息,重要性信息为第k个句语句向量qk的答案文本。
进一步地,在本公开实施例中的问答模型采用GNN的方式,充分利用通过联合模型生成的问题文本中的每个语句向量对应的联合向量,而每个语句向量对应的联合向量既包括问题文本中的语句的问题信息,也包括该语句中的实体对应的知识图谱实体信息,也就是说,本公开实施例中的联合向量是一种问题文本中的语句的问题信息与语句中的实体对应的知识图谱实体信息相互关联的表示,并且,通过联合模型生成的联合向量有助于将问题文本中的语句的问题信息分配给与该问题信息更大概率相匹配的实体,从而引导三元组在每个推理步骤中匹配问题,解决了相关技术中只考虑在每一跳上将问题编码与关系向量进行匹配,无法处理知识图谱中复杂的关系类型的问题,本公开实施例能够处理更复杂的问题,大大提高问答的准确率。
在一种可选的实施例中,在问题文本包括多个语句的情况下,对问题文本进行处理,得到多个语句向量,将多个语句向量存储于语句查询模块中,其中,本公开实施例中的语句查询模块用于查询任意语句向量。若本公开实施例需要第k个语句的答案文本,则本公开实施例可以通过查询模块查询到第k个语句的语句向量,也就是qk,将第k个语句的语句向量qk与知识图谱向量模型进行匹配,得到第k个语句的语句向量qk中对应的实体向量,再生成第k个语句的语句向量qk对应的联合向量,最后将第k个语句的语句向量qk对应的联合向量输入至预先训练好的问答模型中,输出得到第k个语句的语句向量qk对应答案文本。
在一种可选的实施例中,为了更新知识图谱向量模型中的实体向量,本公开实施例使用了多头注意来允许联合模型进行多项选择,以减少噪声和偏差的影响。最后,通过归一化指数函数计算任意语句向量对应的相匹配的每个三元组的重要度得分。本公开实施例通过上述方法可以帮助计算机更好地理解问题文本中的复杂关系和语义信息;多头注意力的优点在于它可以处理不同类型的文本数据,并且可以自适应地学习不同的特征。
在一种可选的实施例中,在对预先构建的神经网络进行训练时,在通过输出每个语句向量对应的联合向量与人为标记的答案文本之间使用相对熵函数作为目标函数,来计算训练过程中的损失,逐步训练至损失最小,此时答案准确率最高。
总的来说,本公开实施例基于知识图谱的问答方法具体流程如图5所示,将获取到的问题文本输入至Glove模型中,将问题文本中的每个语句进行分词、向量化处理,再将每个语句的词向量进行加权平均处理,得到问题文本中每个语句的语句向量,将所有语句向量存储于语句查询模块,同时,将对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的知识图谱向量模型,将知识图谱向量模型中的实体向量、实体之间关系向量与语句向量输入至联合模型中,得到每个语句向量对应的联合向量,将联合向量输入至问答模型,最终输出答案文本,并且,本公开实施例。
基于同一发明构思,本公开实施例中还提供了一种基于知识图谱的问答装置,如下面的实施例。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开实施例中一种基于知识图谱的问答装置示意图,如图6所示,该装置包括:
问题获取模块601,用于获取问题文本,其中,问题文本包括:一个或多个语句;
向量处理模块602,用于对问题文本进行处理,得到问题文本中每个语句的语句向量;
实体向量匹配模块603,用于将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;
联合向量生成模块604,用于根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;
答案输出模块605,用于将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。
本公开的实施例中提供的基于知识图谱的问答装置,通过问题获取模块,获取问题文本,该问题文本包括:一个或多个语句;通过向量处理模块,对问题文本进行处理,得到问题文本中每个语句的语句向量;通过实体向量匹配模块,将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量;通过联合向量生成模块,根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;通过答案输出模块,将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。本公开实施例根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量,而联合向量是包括每个语句的语句向量以及该语句对应的实体向量的信息,避免了现有技术中的知识图谱模型缺乏问题与知识图谱中的实体之间的编码信息交互的问题,进一步地,本公开实施例将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出的对应答案文本集成了问题文本中的语句向量和对应的实体向量,也就是问题编码信息与知识图谱向量模型中的实体向量相结合,能够处理更复杂的问题,显著提高了多跳问答的准确率。
一种可选的实施例中,本公开实施例中的向量处理模块,包括:对问题文本进行分词处理,获得分词结果;通过词向量模型对分词结果进行处理,得到问题文本中的每个语句中各个词的词向量;对问题文本中的每个语句中各个词的词向量进行加权平均,得到问题文本中每个语句的语句向量。
一种可选的实施例中,本公开实施例中的基于知识图谱的问答装置还包括:在将每个语句的语句向量与知识图谱向量模型进行匹配之前,将预先构建的实体关系知识图谱中的实体和实体之间关系进行向量化,得到知识图谱向量模型。
一种可选的实施例中,本公开实施例中的基于知识图谱的问答装置还包括:在将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本之前,对预先构建的神经网络进行训练,得到问答模型。
一种可选的实施例中,本公开实施例中的联合向量生成模块,包括:将问题文本中每个语句的语句向量与对应的实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量。
一种可选的实施例中,本公开实施例中的基于知识图谱的问答装置还包括:在将问题文本中每个语句的语句向量与对应的实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量之前,对双向长短期记忆网络LSTM进行训练,得到联合模型。
一种可选的实施例中,上述装置还包括:在问题文本包括多个语句的情况下,对问题文本进行处理,得到多个语句向量,将多个语句向量存储于语句查询模块中,语句查询模块用于查询任意语句向量。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元701、上述至少一个存储单元702、连接不同系统组件(包括存储单元702和处理单元701)的总线703。
其中,存储单元存储有程序代码,程序代码可以被处理单元701执行,使得处理单元701执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
在一些实施例中,当电子设备用于控制例如本公开上述基于知识图谱的问答方法时,处理单元701可以执行上述方法实施例的如下步骤:
获取问题文本,其中,问题文本包括:一个或多个语句。
对问题文本进行处理,得到问题文本中每个语句的语句向量。
将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型。
根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量。
将问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出问题文本对应的答案文本。
存储单元702可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7021和/或高速缓存存储单元7022,还可以进一步包括只读存储单元(ROM)7023。
存储单元702还可以包括具有一组(至少一个)程序模块7025的程序/实用工具7024,这样的程序模块7025包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线703可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备704(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备700还可以通过网络适配器706与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器706通过总线703与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,计算机程序被处理器执行时实现上述基于知识图谱的问答方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种基于知识图谱的问答方法,其特征在于,包括:
获取问题文本,其中,所述问题文本包括:一个或多个语句;
对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量;
将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,所述知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;
根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;
将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本。
2.根据权利要求1所述的基于知识图谱的问答方法,其特征在于,对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量,包括:
对所述问题文本进行分词处理,获得分词结果;
通过词向量模型对所述分词结果进行处理,得到所述问题文本中的每个语句中各个词的词向量;
对所述问题文本中的每个语句中各个词的词向量进行加权平均,得到所述问题文本中每个语句的语句向量。
3.根据权利要求1所述的基于知识图谱的问答方法,其特征在于,在将每个语句的语句向量与知识图谱向量模型进行匹配之前,所述方法还包括:
将所述预先构建的实体关系知识图谱中的实体和实体之间关系进行向量化,得到所述知识图谱向量模型。
4.根据权利要求1所述的基于知识图谱的问答方法,其特征在于,在将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本之前,所述方法还包括:
对预先构建的神经网络进行训练,得到所述问答模型。
5.根据权利要求1所述的基于知识图谱的问答方法,其特征在于,根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量,包括:
将所述问题文本中每个语句的语句向量与对应的所述实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量。
6.根据权利要求5所述的基于知识图谱的问答方法,其特征在于,在将所述问题文本中每个语句的语句向量与对应的所述实体向量输入到预先训练好的联合模型中,输出每个语句向量对应的联合向量之前,所述方法还包括:
对双向长短期记忆网络LSTM进行训练,得到所述联合模型。
7.根据权利要求1所述的基于知识图谱的问答方法,其特征在于,在所述问题文本包括多个语句的情况下,对所述问题文本进行处理,得到多个语句向量,将所述多个语句向量存储于语句查询模块中,所述语句查询模块用于查询任意所述语句向量。
8.一种基于知识图谱的问答装置,其特征在于,包括:
问题获取模块,用于获取问题文本,其中,所述问题文本包括:一个或多个语句;
向量处理模块,用于对所述问题文本进行处理,得到所述问题文本中每个语句的语句向量;
实体向量匹配模块,用于将每个语句的语句向量与知识图谱向量模型进行匹配,得到每个语句对应的一个或多个实体向量,其中,所述知识图谱向量模型为对预先构建的实体关系知识图谱中实体和实体之间关系进行向量化得到的模型;
联合向量生成模块,用于根据每个语句向量与对应的实体向量,生成每个语句向量对应的联合向量;
答案输出模块,用于将所述问题文本中每个语句对应联合向量输入到预先训练好的问答模型中,输出所述问题文本对应的答案文本。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的基于知识图谱的问答方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的基于知识图谱的问答方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310587486.2A CN116578684A (zh) | 2023-05-23 | 2023-05-23 | 基于知识图谱的问答方法、装置以及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310587486.2A CN116578684A (zh) | 2023-05-23 | 2023-05-23 | 基于知识图谱的问答方法、装置以及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116578684A true CN116578684A (zh) | 2023-08-11 |
Family
ID=87545051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310587486.2A Pending CN116578684A (zh) | 2023-05-23 | 2023-05-23 | 基于知识图谱的问答方法、装置以及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116578684A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216194A (zh) * | 2023-11-08 | 2023-12-12 | 天津恒达文博科技股份有限公司 | 文博领域知识问答方法及装置、设备和介质 |
CN117591661A (zh) * | 2024-01-18 | 2024-02-23 | 之江实验室 | 一种基于大语言模型的问答数据构建方法及装置 |
-
2023
- 2023-05-23 CN CN202310587486.2A patent/CN116578684A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216194A (zh) * | 2023-11-08 | 2023-12-12 | 天津恒达文博科技股份有限公司 | 文博领域知识问答方法及装置、设备和介质 |
CN117216194B (zh) * | 2023-11-08 | 2024-01-30 | 天津恒达文博科技股份有限公司 | 文博领域知识问答方法及装置、设备和介质 |
CN117591661A (zh) * | 2024-01-18 | 2024-02-23 | 之江实验室 | 一种基于大语言模型的问答数据构建方法及装置 |
CN117591661B (zh) * | 2024-01-18 | 2024-04-26 | 之江实验室 | 一种基于大语言模型的问答数据构建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110597991B (zh) | 文本分类方法、装置、计算机设备及存储介质 | |
CN116578684A (zh) | 基于知识图谱的问答方法、装置以及相关设备 | |
US10810993B2 (en) | Sample-efficient adaptive text-to-speech | |
CN110704597B (zh) | 对话系统可靠性校验方法、模型生成方法及装置 | |
CN110795939A (zh) | 文本处理方法、装置 | |
CN112925914B (zh) | 数据安全分级方法、系统、设备及存储介质 | |
CN113761156A (zh) | 人机交互对话的数据处理方法、装置、介质及电子设备 | |
CN115019237A (zh) | 多模态情感分析方法、装置、电子设备及存储介质 | |
CN113761220A (zh) | 信息获取方法、装置、设备及存储介质 | |
CN114547658A (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
US11657277B2 (en) | Generating neural network outputs using insertion commands | |
CN111753062A (zh) | 一种会话应答方案确定方法、装置、设备及介质 | |
CN115312040A (zh) | 语音唤醒方法、装置、电子设备和计算机可读存储介质 | |
CN114443824A (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
JP2022071170A (ja) | 対話状態の生成方法、装置、電子機器及び記憶媒体 | |
CN113435537A (zh) | 基于Soft GBDT的跨特征联邦学习方法、预测方法 | |
US20220365762A1 (en) | Neural network model conversion method server, and storage medium | |
CN114761944A (zh) | 域结构知识上的会话代理 | |
CN112149426A (zh) | 阅读任务处理方法及相关设备 | |
CN112052680A (zh) | 问题生成方法、装置、设备及存储介质 | |
CN115063536B (zh) | 图像生成方法、装置、电子设备及计算机可读存储介质 | |
CN113761157B (zh) | 应答语句生成方法和装置 | |
CN116776870B (zh) | 意图识别方法、装置、计算机设备及介质 | |
CN116881473A (zh) | 知识图谱补全方法及相关设备 | |
CN116893962A (zh) | 测试数据生成方法、装置以及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |