CN115599922A - 用于训练知识图嵌入模型的设备、程序和计算机实现方法 - Google Patents

用于训练知识图嵌入模型的设备、程序和计算机实现方法 Download PDF

Info

Publication number
CN115599922A
CN115599922A CN202210721987.0A CN202210721987A CN115599922A CN 115599922 A CN115599922 A CN 115599922A CN 202210721987 A CN202210721987 A CN 202210721987A CN 115599922 A CN115599922 A CN 115599922A
Authority
CN
China
Prior art keywords
training
query
knowledge graph
embedding
ontology
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210721987.0A
Other languages
English (en)
Inventor
C·多莫科斯
D·斯戴潘诺娃
M·安德雷塞尔
T·K·陈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN115599922A publication Critical patent/CN115599922A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/042Backward inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Abstract

提供了用于训练知识图嵌入模型的设备、程序和计算机实现方法。用于训练由本体(202)增强的知识图(200)的知识图嵌入模型(208)的设备、计算机程序、计算机实现方法,其中该方法包括用第一训练查询及其预定回答训练(2)知识图嵌入模型(208),以减小、特别是最小化回答在知识图嵌入模型(208)中的嵌入和第一训练查询在知识图嵌入模型(208)中的嵌入之间的距离,并且减小、特别是最小化在知识图嵌入模型(208)中回答的嵌入和第二训练查询的嵌入之间的距离,其中取决于本体(202)从第一训练查询确定(1)第二训练查询。

Description

用于训练知识图嵌入模型的设备、程序和计算机实现方法
技术领域
本发明涉及用于训练知识图嵌入模型的设备、计算机程序和计算机实现方法。
背景技术
知识图嵌入模型可以被训练来提供对查询的回答。合期望的是提供一种方法,其具有回答不完整知识图上的查询的系统方式。
发明内容
一种用于训练由本体增强的知识图的知识图嵌入模型的计算机实现方法包括:用第一训练查询及其预定回答训练知识图嵌入模型,以减小、特别是最小化回答在知识图嵌入模型中的嵌入和第一训练查询在知识图嵌入模型中的嵌入之间的距离,并且减小、特别是最小化在知识图嵌入模型中回答的嵌入和第二训练查询的嵌入之间的距离,其中第二训练查询是取决于本体从第一训练查询确定的。第二训练查询是在知识图中具有回答的预定查询的专门化。这允许训练知识图嵌入模型以用于回答不完整知识图上的合取(conjunctive)查询。训练不仅依赖于原始知识图,而且还依赖于伴随知识图的本体。第二训练查询的嵌入计及用于确定第二训练查询的本体公理(ontological axiom)。
为了对第一训练查询进行采样,该方法可以包括根据本体以及知识图的实体集和关系集来确定一致的可能一元连续查询集,并且从一元连续查询集中选择第一训练查询。提供了一种用于依赖于本体对查询进行策略采样的方法,而不是对用于训练的查询进行随机采样。
该方法可以包括根据预定的查询形状确定第一训练查询。考虑根据预定查询形状的查询,而不是对查询进行随机采样。随机选择的示例可能不包括基于本体彼此相关的任何查询。这利用基于本体的采样来避免。
该方法可以包括对查询进行采样、特别是随机采样,利用本体确定查询的泛化,以及根据泛化、特别是泛化的专门化,确定第二训练查询。泛化描述了多个专门化,并允许根据本体确定与第一训练查询相似的许多不同的训练查询。
该方法可以包括提供泛化深度并确定查询的泛化直到泛化深度,和/或提供专门化深度并确定查询的专门化直到专门化深度。这实际上是为了限制计算努力。
该方法可以包括通过用知识图嵌入模型提供对合取查询的回答。
该方法可以包括训练知识图嵌入以增加、特别是最大化第一训练查询的嵌入和不是第一训练查询的回答的预定实体的至少一个嵌入之间的距离,和/或增加、特别是最大化第二训练查询的嵌入和不是第二训练查询的回答的预定实体的至少一个嵌入之间的距离。这样,训练导致第一训练查询的嵌入相比于到其非回答的嵌入更接近于其回答的嵌入。
用于训练由本体增强的知识图的知识图嵌入模型的设备被配置为执行方法中的步骤。
一种计算机程序包括计算机可读指令,该计算机可读指令当由计算机执行时,使得计算机执行该方法。
附图说明
从下面的描述和附图中可得出另外的有利实施例。在附图中
图1描绘了知识图模式,
图2描绘了用于训练知识图的知识图嵌入的方法,
图3描绘了用于训练知识图的知识图嵌入的设备。
具体实施方式
知识图KG包括实体集和关系集。KG描述关于感兴趣的特定域的事实,其通过用实体集中的至少一个实体来表示该事实,该至少一个实体经由关系集中的至少一个关系与实体集中的至少一个其他实体互连。
在KG表示中,实体由KG的节点表示,并且两个实体之间的关系由这些节点之间的KG的边表示。
事实是主语、谓语和宾语的三元组。在KG中,主语是实体,宾语是实体,并且谓语是关系。
在KG的知识图嵌入KGE中,实体由嵌入来表示。在KGE中,关系由嵌入来表示。事实的主语嵌入、谓语嵌入和宾语嵌入的三元组在KGE中表示该事实。
KG可以用于预测第一给定实体和第二给定实体之间的关系。可以取决于得分从关系集中选择该关系。得分可以用得分函数来确定,该得分函数将第一实体在KGE中的嵌入、第二实体在KGE中的嵌入以及关系在KGE中的嵌入映射到得分。
嵌入可以是向量空间中的向量。用得分函数确定得分可以包括确定向量和。确定向量和可以包括将表示关系的向量添加到表示第一实体的向量。确定得分可以包括确定向量和到表示第二实体的向量的距离。
实体的嵌入可以是第一向量空间中的向量。关系的嵌入可以是第二向量空间中的向量。确定得分可以包括确定表示第一向量空间中的第一实体的第一向量到第二向量空间中的第一向量的映射。确定得分可以包括确定表示第一向量空间中的第二实体的第二向量到第二向量空间中的第二向量的映射。用得分函数确定得分可以包括确定向量和。确定向量和可以包括将表示第二向量空间中的关系的向量添加到第一向量。确定得分可以包括确定向量和到第二向量的距离。
在示例中,该距离是欧几里德距离。
为了用KG预测该关系,包括两个给定实体的输入可以被映射到包括该关系的输出。该关系可以从关系集中选择。在示例中,所选择的关系导致比关系集中的至少另一个关系更高的得分。优选地,选择导致关系集中关系最高得分的关系。
可以训练神经网络来表示KGE。可以用包括嵌入三元组的训练数据来训练神经网络。训练数据可以包括表示KG真实事实的三元组。训练数据可以包括表示不是KG真实事实的三元组的三元组。
神经网络可以被训练来将实体集中给定第一实体的第一嵌入和给定第二实体的第二嵌入映射到关系集中每个关系的得分。关系的得分表示对于关系而言该关系是给定第一实体和给定第二实体之间的关系的概率。
神经网络可以被训练来将给定实体的嵌入和关系集中给定关系的嵌入映射到实体集中每个实体的得分。实体的得分表示对于实体而言该实体是与给定实体具有给定关系的实体的概率。
KG被广泛用于自然问答、web搜索和数据分析。KG存储大约数百万个事实的信息。
KG可以自动、半自动或至少部分手动地构造,例如通过使用众包方法。
在训练中,可以用训练数据来训练KG或KGE、特别是神经网络,以表示可用的知识。训练数据可以包括表示真实事实的肯定三元组和表示不正确事实的否定三元组。
KG或KGE、特别是神经网络可以用肯定三元组和否定三元组来训练。
该方法在正确的(即肯定的)和不正确的(即否定的)三元组之间进行区分。
KG表示相互关联的事实信息集合。KG可以被编码为(主语;谓语;宾语)三元组集,例如(john;worksAt;bosch)。这样的三元组的主语或宾语称为实体,并且谓语称为关系。KG的三元组集可以表示为有向图,其顶点和边被标记。KG三元组被称为事实。KG事实可以如下表示为一元或二元基准谓语:man(john),worksAt(john;bosch)。
在示例中,KG G的签名
Figure 254208DEST_PATH_IMAGE001
定义实体
Figure 640190DEST_PATH_IMAGE002
集和出现在G中的关系R集。签名
Figure 888768DEST_PATH_IMAGE003
中的关系R表示谓语,即KG的边。签名
Figure 752819DEST_PATH_IMAGE003
中的常数表示实体
Figure 36033DEST_PATH_IMAGE002
,即KG的节点,或关系R
KGE关注于将KG实体和关系嵌入到具有用户指定的维度n的连续向量空间中。更具体地,KGE模型将KG三元组集取作输入,并且旨在将实体和关系映射到n维向量空间中,使得反映KG结构的一些特征得以保留。这些特征被相应的KGE模型的目标函数捕获。这样,从关系数据中获得数值向量集。
本体是表示为公理集的感兴趣域的概念化。本体反映了KG应该遵循的纲要,例如:
Figure 327337DEST_PATH_IMAGE004
第一个公理声明在公司中工作的人是雇员,而第二个公理指定关系managerAt比关系worksAt更具体。
根据Artale,A.,Calvanese,D.,Kontchakov,R.,Zakharyaschev,M.: The DL-lite family and relations. CoRR abs/1401.3487 (2014),在规则右侧没有存在性的限制的情况下,我们依赖于
Figure 63212DEST_PATH_IMAGE005
中的本体。支持的示例性规则形式的概述如下:
Figure 730954DEST_PATH_IMAGE006
合取查询是
Figure 868674DEST_PATH_IMAGE007
Figure 330879DEST_PATH_IMAGE008
形式的表达式,其中B是如规则中定义的主体,并且
Figure 554050DEST_PATH_IMAGE009
是回答变量,即保存查询回答的变量。一元CQ是具有单个回答变量的CQ。
对于KG和本体O,对CQ的特定回答是在KG上获得的回答,该回答用从KG和本体O推断的所有事实进行充实。
使用例如在Yahya,M.,Berberich,K.,Elbassuoni,S.,Ramanath,M.,Tresp, V.,Weikum,G.: Deep answers for naturally asked questions on the web of data. In:Proceedings of the 21st World Wide Web Conference, WWW 2012, Lyon, France,April 16-20, 2012 (Companion Volume). pp. 445–449 (2012)中公开的方法,将用户以自然语言表述的信息需求转化成这样的形式CQ。例如,对于存储关于人及其工作地点的信息的KG,用户可能对在Bosch的某个IT部门中工作的所有人感兴趣。形式上,这样的查询应该表述为:
Figure 759904DEST_PATH_IMAGE010
,这是一元CQ。
合取查询可以自然地表示为KG模式。图1中描绘了示例性的KG模式,用于对应于上述查询的KG模式。
下面,描述一种用于在不完整的KG上回答CQ的方法。该方法不仅依赖于原始的KG,而且还依赖于KG所伴随的本体O
该方法包括基于本体的训练策略,并且扩展了损失函数,该损失函数允许计及本体公理并且使用扩展的损失函数。这样的损失函数例如在Ren,H.,Hu,W.,Leskovec,J.:Query2box: Reasoning over knowledge graphs in vector space using boxembedding. In: ICLR. OpenReview.net (2000)中描述。
实体作为点嵌入在d维向量空间中。
查询作为框嵌入。在该上下文中,框是指d维向量空间中的轴对齐的超矩形。
用于
Figure 752130DEST_PATH_IMAGE011
的d维嵌入是将
Figure 647887DEST_PATH_IMAGE012
映射到
Figure 358354DEST_PATH_IMAGE013
并且将
Figure 102319DEST_PATH_IMAGE014
映射到
Figure 214631DEST_PATH_IMAGE015
的函数F,其中签名
Figure 753060DEST_PATH_IMAGE016
是KG G的给定签名
Figure 216402DEST_PATH_IMAGE017
,并且Q G 是签名
Figure 764058DEST_PATH_IMAGE016
上的一元CQ集,并且cen q 是框的中心,并且off q 是框cen q 的偏移。d维向量空间的到框中心cen q 距离off q 内的任何点都被认为是在该框内部。
如果KGE模型可以被配置为每当
Figure 730877DEST_PATH_IMAGE018
成立则强制H成立,则本体规则
Figure 971366DEST_PATH_IMAGE019
可以被注入到KGE模型中。
该方法旨在以查询框内部的点集对应于CQ的回答实体集为条件来嵌入CQ主语。因为对于每一个本体规则,规则的左手侧和右手侧可以被转变成查询,所以将本体注入到KGE模型中相当于确保将对应于相应查询的框包含到彼此中。
参考图2进一步解释该方法。
至该方法的输入是KG 200和本体202。可选地,如下面将描述的提供查询深度204。
训练基于肯定样本206-1和否定样本206-2。在训练中,KGE模型208被训练。
该方法包括步骤1。
步骤1包括确定肯定样本和否定样本。
肯定样本包括训练查询及其回答。根据下面描述的训练策略来确定训练查询。否定样本如肯定样本那样被结构化,并且特别地从KG中随机采样。
在该示例中,确定了多个肯定样本和多个否定样本。
之后,执行步骤2。
步骤2包括用肯定样本和否定样本训练KGE模型208。在该示例中,用多个肯定样本和多个否定样本来训练KGE模型208。
下面描述训练目标、特别是用于训练KGE模型208的损失函数。
作为步骤2的结果计算的KGE模型可以用于回答CQ。
步骤1中采用的训练策略考虑了可能的一元CQ的集Q G ,其可以使用KG 200的签名
Figure 390846DEST_PATH_IMAGE020
中的谓语和常数来形成。优选地,考虑所有可能的一元CQ。
这意味着,该方法可以包括使用出现在知识图200中的实体集和关系集,从可以由本体(即根据本体)形成的可能的一元连续查询的集Q G 中确定训练查询。
下面,描述了用于以本体引导的方式确定训练查询的三个示例。
基于特定回答的采样:
基于特定回答的采样包括对查询进行随机采样,并在训练中使用它们连同它们的特定回答而不是标准回答。
如果本体包含一种语言中的公理,对于该语言,可以高效地进行查询回答,则生成训练查询连同它们的特定回答在实践中是可行的。在Artale,A.,Calvanese,D.,Kontchakov,R.,Zakharyaschev,M.: The dl-lite family and relations. CoRR abs/1401.3487 (2014)中公开了对于基于特定回答的采样的示例性语言。
作为举例,假设KG 200存储以下事实:
Figure 742193DEST_PATH_IMAGE021
并且本体O包含规则:
Figure 563518DEST_PATH_IMAGE022
以及给出的特定的随机选择的查询:
Figure 974908DEST_PATH_IMAGE023
它的特定回答是:
Figure 84946DEST_PATH_IMAGE024
在示例中,该查询及其特定回答定义了训练步骤2的肯定样本。
基于查询重写的采样:
基于查询重写的采样还向随机采样查询集添加其专门化和泛化。计及本体O而获得查询的专门化。计及本体O而获得查询的泛化。
给定查询q的专门化在下面标示为
Figure 974405DEST_PATH_IMAGE025
。专门化并入可以对查询q的回答的构造有用的信息。给定查询q的泛化标示为
Figure 936324DEST_PATH_IMAGE026
。泛化并入附加的相关实体,所述附加的相关实体可能潜在地是似乎合理的遗漏回答。
用于获得查询的泛化
Figure 987457DEST_PATH_IMAGE027
和专门化
Figure 381529DEST_PATH_IMAGE028
的示例性规则是:
Figure 74678DEST_PATH_IMAGE029
Figure 605017DEST_PATH_IMAGE030
作为举例,给定公理:
Figure 623788DEST_PATH_IMAGE031
和查询:
Figure 505157DEST_PATH_IMAGE032
第一规则R1产生:
Figure 205260DEST_PATH_IMAGE033
作为查询q的泛化,并且第三规则R3产生:
Figure 855684DEST_PATH_IMAGE034
作为q'的专门化。
该方法可以包括对多个查询连同其泛化和专门化进行随机采样,并使用多个查询及其泛化和专门化来构造训练样本。
为减少计算努力,该方法可以包括提供生成训练查询所达到的泛化深度k g 和/或专门化深度k s 。在该示例中,输入到该方法的查询深度204定义泛化深度k g 和/或专门化深度k s
向随机查询添加泛化和专门化允许捕获本体背景知识的一些部分。
基于策略本体的训练:
基于策略本体的训练旨在基于本体O找到相关查询。
该方法可以包括通过依赖于本体O来生成训练查询。
目标查询集借助于有向非循环图(NE)来形式化,其中N是节点集,并且E是有向边集。这样的有向非循环图DAG捕获查询的形状。该形状可以用来自签名
Figure 779777DEST_PATH_IMAGE035
的关系R集和常数来实例化。签名
Figure 882863DEST_PATH_IMAGE035
可以进一步包括符号,例如尚要被确定的用于关系R或实体
Figure 183394DEST_PATH_IMAGE036
的关系符号或变量。然后,通过应用标记函数f将签名
Figure 688325DEST_PATH_IMAGE035
中的符号分配给KG的节点和边,获得目标查询集。
在该示例中,查询形状S是元组(NEAn),使得(NE)是DAG,并且
Figure 517740DEST_PATH_IMAGE037
S的区别节点,并且
Figure 370771DEST_PATH_IMAGE038
标示S中的锚节点集。对于来自签名
Figure 943835DEST_PATH_IMAGE035
的给定关系集和常数,标记函数f是从
Figure 303272DEST_PATH_IMAGE039
Figure 569168DEST_PATH_IMAGE040
的映射,其中V是变量集,使得每个锚节点被映射到常数,每个非锚节点被映射到变量或常数,并且每个边映射到签名
Figure 646846DEST_PATH_IMAGE035
中的关系符号。
给定签名
Figure 289180DEST_PATH_IMAGE035
和查询形状S,CQ集是
Figure 768703DEST_PATH_IMAGE041
,其中
Figure 205500DEST_PATH_IMAGE042
在该示例中,标记函数f用以下集确定:
Figure 770474DEST_PATH_IMAGE043
其中,对于给定的关系p
Figure 950919DEST_PATH_IMAGE044
是包含p的所有逆关系的集。
Figure 284949DEST_PATH_IMAGE045
是包含p的多个域类型的集。
Figure 892648DEST_PATH_IMAGE046
优选地包括所有域类型。
Figure 944917DEST_PATH_IMAGE047
是包含p的多个范围类型的集。
Figure 663475DEST_PATH_IMAGE048
优选地包括所有范围类型。
Figure 117590DEST_PATH_IMAGE049
是包含多个关系p'的集,所述多个关系p'可以跟随p
Figure 96522DEST_PATH_IMAGE049
优选地包含所有这样的关系p'
Figure 636088DEST_PATH_IMAGE050
是包含多个关系p'的集,所述多个关系p'可以在范围上与p相交。
Figure 955074DEST_PATH_IMAGE050
优选地包含所有这样的关系p'
Figure 263696DEST_PATH_IMAGE051
是包含多个关系p'的集,所述多个关系p'可以在域位置上与p相交。
Figure 213197DEST_PATH_IMAGE051
优选地包含所有这样的关系p'
在该示例中,在查询形状S和本体O的情况下,标记函数f针对相对于OS有效,如果对于每对边
Figure 974480DEST_PATH_IMAGE052
Figure 300419DEST_PATH_IMAGE053
,或者
Figure 463547DEST_PATH_IMAGE054
,或者
Figure 583950DEST_PATH_IMAGE055
,或者
Figure 98108DEST_PATH_IMAGE056
,或者
Figure 962158DEST_PATH_IMAGE057
,或者
Figure 979793DEST_PATH_IMAGE058
在该示例中,在查询形状S和本体O的情况下,标记函数f针对相对于OS有效,如果对于每对边
Figure 536676DEST_PATH_IMAGE059
Figure 272551DEST_PATH_IMAGE060
,或者
Figure 674714DEST_PATH_IMAGE061
,或者
Figure 546855DEST_PATH_IMAGE062
,或者
Figure 271710DEST_PATH_IMAGE063
,或者
Figure 494880DEST_PATH_IMAGE064
,并存在一个概念A使得
Figure 700734DEST_PATH_IMAGE065
Figure 692961DEST_PATH_IMAGE066
在该示例中,在查询形状S和本体O的情况下,标记函数f针对相对于OS有效,如果对于每对边
Figure 591647DEST_PATH_IMAGE052
Figure 36534DEST_PATH_IMAGE067
,或者
Figure 46079DEST_PATH_IMAGE068
,或者
Figure 955129DEST_PATH_IMAGE069
,或者
Figure 759137DEST_PATH_IMAGE070
,或者
Figure 956900DEST_PATH_IMAGE071
,并存在某个实体A,使得
Figure 504556DEST_PATH_IMAGE072
并且
Figure 205796DEST_PATH_IMAGE073
在上文中,*符号反映了可以经由多个公理来进行泛化,例如,
Figure 446284DEST_PATH_IMAGE074
这样创建了语义上有意义的查询。
作为举例,给定查询形状
Figure 865764DEST_PATH_IMAGE075
和标记函数f1,其映射
Figure 217111DEST_PATH_IMAGE077
,和
Figure 38437DEST_PATH_IMAGE078
,以及
Figure 449826DEST_PATH_IMAGE079
标记函数
Figure 353673DEST_PATH_IMAGE080
关于本体O是有效的,而标记函数
Figure 243131DEST_PATH_IMAGE081
Figure 184543DEST_PATH_IMAGE082
关于本体O是无效的,因为worksAt的范围和teachesAt的域不相交。
包括多个训练查询的训练集例如通过计算每个查询形状的每个有效标记函数并添加未被本体O捕获的数据模式来构造。在该上下文中,未被本体O捕获的数据模式可以是其泛化或专门化。
在该示例中,给定形状S的在KG上具有回答的所有标记查询是一元CQ的集Q G 。使用本体O,例如利用上述的规则R1到R6来确定每个查询的泛化。在该示例中,所获得的多个训练查询包含在给定本体O和该数据模式集的情况下可以构造的所有查询。
该方法可以包括为每个锚节点、特别是随机地选择一部分有效实体。这意味着对于被选作锚点的每个实体,所得的查询在KG 200上产生特定回答。
Ren, H., Leskovec, J.: Beta embedding for multi-hop logical reasoningin knowledge graphs. In: Advances in Neural Information Processing Systems33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS2020, December 6-12, 2020, virtual (2020)公开了一种用于利用目标函数训练知识图嵌入模型的示例性训练方法。
KGE模型208基于该训练方法。与该方法形成对照,用于训练的目标函数还计及本体公理。
该示例中的方法旨在学习查询的表示,包括它们依赖于本体O的泛化和/或专门化。
该示例中的方法旨在减小、优选地最小化查询的嵌入和表示回答、即肯定样本的嵌入之间的距离,同时增加、特别是最大化查询的嵌入和表示非回答、即否定样本的嵌入之间的距离。
在该示例中,距离是查询框
Figure 501254DEST_PATH_IMAGE083
和实体向量
Figure 692064DEST_PATH_IMAGE084
之间的距离,作为box q v之间的L1距离,即
Figure 385214DEST_PATH_IMAGE085
其中
Figure 181132DEST_PATH_IMAGE086
并且
Figure 934324DEST_PATH_IMAGE087
在该示例中,函数
Figure 815692DEST_PATH_IMAGE088
将距离变换为
Figure 46953DEST_PATH_IMAGE089
区间,其中
Figure 697378DEST_PATH_IMAGE090
是余量,并且
Figure 621471DEST_PATH_IMAGE091
控制惩罚的强度。
该方法旨在确保如果某个训练查询q是依赖于本体O的另一个查询q'的泛化,则用于训练查询q的框box q 包含用于该另一个训练查询q'的框box q'
更一般地,如果a是用于训练查询q的回答实体,则该方法旨在不仅最小化回答a和训练查询q之间的距离,而且还最小化回答a和训练查询q的专门化之间的距离。
在示例中,提供给定查询训练集及其回答,以及查询的多个泛化或查询的所有泛化。
例如,基于本体O确定查询q的所有泛化集
Figure 990136DEST_PATH_IMAGE092
。然后,给定训练查询q及其关于本体O的特定回答
Figure 25088DEST_PATH_IMAGE093
,目标函数可以是v的损失函数。下面提供损失函数的两个示例——第一损失函数和第二损失函数。
第一损失函数是否定对数似然性:
Figure 264439DEST_PATH_IMAGE094
其中,
Figure 359434DEST_PATH_IMAGE095
是经由否定采样获得的随机实体,并且
Figure 215395DEST_PATH_IMAGE096
是固定标量。
第二损失函数是:
Figure 785529DEST_PATH_IMAGE097
其中
Figure 410545DEST_PATH_IMAGE098
qG上关于O的特定回答,
Figure 676442DEST_PATH_IMAGE099
Figure 550857DEST_PATH_IMAGE100
是余量,
Figure 193191DEST_PATH_IMAGE101
,并且
Figure 672713DEST_PATH_IMAGE102
是固定标量。
作为举例,本体O可以包含规则
Figure 109511DEST_PATH_IMAGE103
那么q的泛化集
Figure 674485DEST_PATH_IMAGE104
包括:通过用
Figure 589351DEST_PATH_IMAGE105
替换合取
Figure 188960DEST_PATH_IMAGE106
而从q获得的q 1 q 2 ,它是用
Figure 796658DEST_PATH_IMAGE107
代替
Figure 583349DEST_PATH_IMAGE108
的查询q;以及q 3 ;其中第一、第二和第三合取与在q 1 q 2 q 3 中相同并且分别相同。
给定在具有本体O的KG G上对查询q的特定回答为
Figure 567485DEST_PATH_IMAGE109
,训练目标是要最小化函数p的嵌入v p 与查询q的嵌入box q 之间的距离,以及嵌入v p 与嵌入空间中对应于查询q的泛化q 1 q 2 q 3 的框之间的距离。
依赖于上面定义的两个目标函数中的任一个以及使用上面描述的方法之一生成的肯定和否定查询样本,知识图嵌入模型208被训练。
所获得的知识图嵌入模型208可以用于回答对配备有本体的不完整KG上的合取查询。
知识图200、本体202和/或嵌入模型208可以涉及机器的状态、数字图像中的对象的特性或者对问题的回答。
知识图200可以表示关于机器的状态消息到机器状态的映射的知识。该方法可以包括接收状态消息并取决于状态消息输出机器状态。可以通过用知识图嵌入模型208预测包括表示状态的主语实体和表示机器状态的宾语实体的三元组是否存在来确定状态。该方法可以包括输出机器状态。
对于数字图像处理,知识图200可以是在图像的对象识别中识别的对象的描述。知识图200中的实体可以表示对象和/或其特性。方法可以包括接收对象并取决于对象输出描述。
在街景视图中,对象可以是汽车、人、房屋或基础设施的其他部分。在街景视图中,知识图200、本体202和/或嵌入模型208可以描述对象和/或该对象与特别是数字图像中另一对象的关系。该方法可以包括接收对象并取决于对象输出描述。
该方法可以用于回答用本体增强的不完整KG上的复杂查询。该方法可以应用于例如制造领域中的数字孪生(digital twins)的上下文中。
在图3中,示意性地描绘了用于训练由本体202增强的知识图200的知识图嵌入模型208的设备300的至少一部分。设备300适于执行该方法中的步骤。
设备300包括至少一个存储装置和至少一个处理器。
在该示例中,存储装置302被配置为存储KG 200、KGE模型208、本体202、肯定样本206-1和否定样本206-2。
在该示例中,处理器304被配置为执行上述方法。存储装置302可以存储计算机可读指令,所述计算机可读指令当被处理器304执行时,使得其执行所述方法。处理器304可以被配置为例如从存储装置302或接口(未描绘)接收查询深度204。

Claims (9)

1.一种用于训练由本体(202)增强的知识图(200)的知识图嵌入模型(208)的计算机实现方法,其特征在于,所述方法包括用第一训练查询及其预定回答训练(2)知识图嵌入模型(208),以减小、特别是最小化回答在知识图嵌入模型(208)中的嵌入和第一训练查询在知识图嵌入模型(208)中的嵌入之间的距离,并且减小、特别是最小化在知识图嵌入模型(208)中回答的嵌入和第二训练查询的嵌入之间的距离,其中取决于本体(202)从第一训练查询确定(1)第二训练查询。
2.根据权利要求1所述的方法,其特征在于,根据本体以及知识图(200)的实体集和关系集来确定(1)一致的可能一元连续查询集,并且从一元连续查询集中选择第一训练查询。
3.根据权利要求2所述的方法,其特征在于,所述方法包括根据预定的查询形状确定第一训练查询。
4.根据前述权利要求中的一项所述的方法,其特征在于,所述方法包括对查询进行采样、特别是随机采样,利用本体(202)确定所述查询的泛化,以及根据所述泛化、特别是所述泛化的专门化,确定第二训练查询。
5.根据权利要求4所述的方法,其特征在于,提供泛化深度并确定查询的泛化直到泛化深度,和/或提供专门化深度并确定查询的专门化直到专门化深度。
6.根据前述权利要求中的一项所述的方法,其特征在于,利用知识图嵌入模型(208)提供对合取查询的回答。
7.根据前述权利要求中的一项所述的方法,其特征在于,训练知识图嵌入(208)以增加、特别是最大化第一训练查询的嵌入和不是对第一训练查询的回答的预定实体的至少一个嵌入之间的距离,和/或增加、特别是最大化第二训练查询的嵌入和不是对第二训练查询的回答的预定实体的至少一个嵌入之间的距离。
8.一种用于训练由本体(202)增强的知识图(200)的知识图嵌入模型(208)的设备(300),其特征在于,所述设备(300)适于执行根据权利要求1至7中的一项的方法中的步骤。
9.一种计算机程序,其特征在于,所述计算机程序包括计算机可读指令,所述计算机可读指令当被计算机执行时,使得计算机执行根据权利要求1至7中的一项的方法。
CN202210721987.0A 2021-06-25 2022-06-24 用于训练知识图嵌入模型的设备、程序和计算机实现方法 Pending CN115599922A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP21181822.4A EP4109348A1 (en) 2021-06-25 2021-06-25 A device, a computer program and a computer-implemented method for training a knowledge graph embedding model
EP21181822.4 2021-06-25

Publications (1)

Publication Number Publication Date
CN115599922A true CN115599922A (zh) 2023-01-13

Family

ID=76623993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210721987.0A Pending CN115599922A (zh) 2021-06-25 2022-06-24 用于训练知识图嵌入模型的设备、程序和计算机实现方法

Country Status (4)

Country Link
US (1) US20220414480A1 (zh)
EP (1) EP4109348A1 (zh)
JP (1) JP2023004969A (zh)
CN (1) CN115599922A (zh)

Also Published As

Publication number Publication date
US20220414480A1 (en) 2022-12-29
EP4109348A1 (en) 2022-12-28
JP2023004969A (ja) 2023-01-17

Similar Documents

Publication Publication Date Title
CN114064918B (zh) 一种多模态事件知识图谱构建方法
CN110427461B (zh) 智能问答信息处理方法、电子设备及计算机可读存储介质
CN109783666B (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN112307351A (zh) 用户行为的模型训练、推荐方法、装置和设备
CN110580288A (zh) 基于人工智能的文本分类方法和装置
CN112749562A (zh) 命名实体识别方法、装置、存储介质及电子设备
CN114419642A (zh) 一种文档图像中键值对信息的抽取方法、装置及系统
CN113515632B (zh) 基于图路径知识萃取的文本分类方法
Hu et al. Hierarchical graph semantic pooling network for multi-modal community question answer matching
CN115563327A (zh) 基于Transformer网络选择性蒸馏的零样本跨模态检索方法
CN111598252B (zh) 基于深度学习的大学计算机基础知识解题方法
CN114625858A (zh) 一种基于神经网络的政务问答智能回复方法及装置
CN114372454A (zh) 文本信息抽取方法、模型训练方法、装置及存储介质
CN117271724A (zh) 一种基于大模型和语义图谱的智能问答实现方法及系统
CN116501877A (zh) 一种基于因果图谱的多模态注意力谣言检测方法
CN115599922A (zh) 用于训练知识图嵌入模型的设备、程序和计算机实现方法
CN115359486A (zh) 一种文档图像中自定义信息的确定方法及系统
Woof et al. A framework for end-to-end learning on semantic tree-structured data
Mendel Type-2 Fuzzy sets and systems: How to learn about them
CN114021550A (zh) 一种基于图卷积神经网络的新闻趋势预测系统及方法
CN105808522A (zh) 一种语义联想的方法及装置
CN112732942A (zh) 一种面向用户的多轮问答法律文书实体关系抽取方法
CN115186072A (zh) 一种基于双过程认知理论的知识图谱视觉问答方法
CN111831880A (zh) 一种基于微酒店平台的智能问答方法
CN116661940B (zh) 组件识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication