CN114443855A - 一种基于图表示学习的知识图谱跨语言对齐方法 - Google Patents

一种基于图表示学习的知识图谱跨语言对齐方法 Download PDF

Info

Publication number
CN114443855A
CN114443855A CN202210020693.5A CN202210020693A CN114443855A CN 114443855 A CN114443855 A CN 114443855A CN 202210020693 A CN202210020693 A CN 202210020693A CN 114443855 A CN114443855 A CN 114443855A
Authority
CN
China
Prior art keywords
data
knowledge
graph
entity
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210020693.5A
Other languages
English (en)
Inventor
李昌赫
张华平
商建云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202210020693.5A priority Critical patent/CN114443855A/zh
Publication of CN114443855A publication Critical patent/CN114443855A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种基于图表示学习的知识图谱跨语言对齐方法,属于自然语言处理技术领域。在知识图谱构建阶段,通过爬取网站数据作为来源。然后,过滤筛选多语言实体并抽取其结构化数据组成三元组,构建知识图谱。在对齐阶段,通过图表示学习,将不同来源的知识图谱生成对应的嵌入矩阵,在图嵌入基础上,依靠已对齐实体,将不同语言知识图谱中的实体合并到统一的空间中,并根据实体在联合语义空间中的距离进行对齐。本方法充分利用了知识图谱结构信息,通过图表示学习方法将不同语言知识图谱中的实体合并到统一的空间中,并根据实体在联合语义空间中的距离进行对齐,保证了融合后的数据更准确全面,提高了在跨语言领域进行快速分析和智能搜索的效率。

Description

一种基于图表示学习的知识图谱跨语言对齐方法
技术领域
本发明涉及一种知识图谱跨语言对齐方法,具体涉及一种基于图表示学习的知识图谱跨语言对齐方法,属于自然语言处理技术领域。
背景技术
知识图谱,作为一种以图的形式表现客观世界中概念和实体及实体之间关系的知识库,其本质上是一种大规模的语义网络,能够将海量数据组织为一张互相关联的网络图。自移动互联网崛起以来,信息呈爆炸式增长,大规模的知识图谱层出不穷,导致各类知识图谱之间存在知识重复、知识间的关联不明确等问题,影响了知识图谱在语义级别的综合集成。典型的多语言知识图谱有:DBpedia、YAGO和Freebase等。各知识图谱中包含大量的知识描述,但是,由于数据来源存在差异,数据语种不同,实际上很难构造一个包含全面事实的知识图谱。
实体对齐,在机器翻译、问答系统和信息检索等领域也被描述为实体匹配或实体解析。实体对齐任务的目标,是识别出不同知识图谱之间指代的对象是否为现实世界中同一事物的实体对。知识图谱的实体对齐技术可以实现知识的连接,将同类知识图谱融合为规模更大、质量更权威的领域知识图谱,并为下游应用提供知识保障。
知识图谱的跨语言对齐任务,通常需要进行复杂的计算。传统的跨语言实体对齐方法,通常采用基于人工定义特征的方法,这不仅需要消耗大量的人力,而且很难迁移到实际的应用场景。近年来出现的知识图谱跨语言对齐方法,大多主要关注于编码三元组信息,但对于知识图谱的结构信息没有充分利用。此外,跨语言实体对齐的标签数据难以获得。因此,如何在大量未标注文本上进行预训练,并发挥少量标签数据的最大价值,对于大规模知识图谱的发展、融合有重要意义。
在针对知识图谱跨语言对齐方面,目前很多方法是面向文本数据,计算文本之间的相似度,或者是基于翻译模型的思想对知识图谱进行嵌入。这些方法没有充分利用知识图谱的结构信息,不能在知识图谱跨语言对齐层面取得比较好的效果。
发明内容
本发明的目的在于针对当前知识图谱跨语言数据信息源众多、内容繁杂,而现有的知识图谱跨语言对齐技术不能充分利用图结构信息、无法准确高效的融合足够丰富的跨语言数据等技术问题,创造性地提出一种基于图表示学习的知识图谱跨语言对齐方法。
本发明的创新点在于:在知识图谱构建阶段,通过爬取网站数据作为来源。然后,过滤筛选多语言实体并抽取其结构化数据组成三元组,构建知识图谱。在对齐阶段,通过图表示学习,将不同来源的知识图谱生成对应的嵌入矩阵,在图嵌入的基础上,依靠已对齐实体,将不同语言知识图谱中的实体合并到统一的空间中,并根据实体在联合语义空间中的距离进行对齐。
本发明是通过以下技术方案实现的。
一种基于图表示学习的知识图谱跨语言对齐方法,包括以下步骤:
步骤1:获取多语言数据。
其中,获取多语言数据包括各类百科类网站的数据;
具体地,步骤1包括以下步骤:
步骤1.1:爬取百科类多语言网站数据,并以html格式存到本地;
步骤1.2:对步骤1.1中爬取到的数据进行分类,去除脏数据(Dirty Read,是指源系统中的数据不在给定的范围内或对于实际业务毫无意义,或是数据格式非法,以及在源系统中存在不规范的编码和含糊的业务逻辑)。
其中,对数据进行分类的原因在于:爬取到的数据通常包含一些非实体数据,此类数据会影响后续知识图谱的构建。
具体地,对数据进行分类,可以采用以下方法:
第一步:遍历步骤1.1得到的存到本地的数据,得到包含所有数据的实体名称的列表。
第二步:根据第一步得到的数据实体名称列表,随机抽取M条数据,将这M条数据进行人工标注,划分为训练集及验证集。
第三步:使用Bert模型对第二步中得到的训练集进行预训练微调,在验证集进行交叉验证,当准确度达到90%以上后,将第二步中得到的全部M条数据输入到Bert模型中进行训练,得到完整的预训练模型。
第四步:使用第三步中得到的预训练模型,对第一步中得到的包含所有数据实体名称的列表进行分类,去除掉爬取结果中的脏数据,得到最终的包含数据实体名称的列表。
第五步:根据最终的包含数据实体名称的列表,对步骤1.1中得到的存在本地的html数据进行筛选保存。
步骤2:解析根据步骤1得到的html格式的多语言数据,处理成三元组类型的json格式数据。
由于原始的html数据的形式存在较大差异,如果不转化为一个统一的格式,将不利于存储,也不适用于后续知识图谱的构建、
具体地,步骤2包括以下步骤:
首先,利用bs4库,对步骤1得到的html格式的多语言数据进行遍历,找到其中的表格信息;
然后,根据上述的表格信息,抽取其中的文字内容,根据数据实体名称建立实体—关系—实体三元组;
最后,将上述得到的三元组,存储为json格式数据文件,保存在本地,并对一部分三元组进行打标,得到种子对齐实体。
步骤3:根据步骤2得到的json格式数据建立多语言知识图谱。
具体地,步骤3包括以下步骤:
步骤3.1:针对爬到的不同来源的数据建立索引;
步骤3.2:根据步骤3.1建立的索引,对不同来源的数据分别构建知识图谱;
具体地,建立知识图谱,可以采用以下方法:
第一步:根据步骤2得到的json格式数据文件,遍历每种语言数据的三元组,得到其头节点、关系、尾节点。
第二步:根据第一步得到的头节点、关系和尾节点,针对数据实体名称建立字段,得到每种语言数据的全部属性信息。
第三步:根据步骤3.1建立的索引,找到不同来源的数据,对于同一来源的数据,利用py2neo库进行标记,并将第二步得到的数据导入关系型数据库Neo4j,根据不同数据源和语种,分别建立知识图谱。
步骤4:根据步骤3得到的不同来源的多语言知识图谱,嵌入到统一的向量空间。
其中,嵌入到统一向量空间的原因在于:将知识图谱中的实体、关系等组件转化到连续的向量空间中,表示为稠密低维向量,与简单的独热编码相比,图表示学习维度更低,不容易受到稀疏数据的影响,能够提高计算效率,更好地表达知识图谱对象间的语义信息,空间中两个对象距离越近说明它们的相似度越大。
具体地,步骤4包括以下步骤:
步骤4.1:关系嵌入;
其中,对于由步骤3得到的每种不同来源的知识图谱,都分别进行关系嵌入;
具体地,关系嵌入的步骤如下:
第一步:根据步骤3得到的每种不同来源的知识图谱,按照其实体—关系—实体的结构,建立知识图谱的邻接矩阵A。
第二步:为第一步得到的邻接矩阵添加自环I,I为单位矩阵,得到矩阵
Figure BDA0003462426980000041
Figure BDA0003462426980000042
第三步:计算第二步得到的矩阵
Figure BDA0003462426980000043
的对角度矩阵
Figure BDA0003462426980000044
第四步:随机初始化网络的权重矩阵W。
第五步:计算第二步得到的矩阵
Figure BDA0003462426980000045
的特征矩阵H(i)
第六步:基于式(1),根据第五步得到的当前层的特征矩阵H(i),计算该层的输出H(i +1),H(i+1)即为知识图谱的关系嵌入表达形式。
Figure BDA0003462426980000046
其中,σ表示激活函数。
步骤4.2:嵌入空间变换;
其中,嵌入空间变换的目的,是将不同来源的知识图谱嵌入到统一的向量空间,来提升图表示学习中实体相似性的评价;
具体地,嵌入空间变换的步骤如下:
第一步:随机初始化网络的权重矩阵M。
第二步:将步骤2中得到的种子对齐实体和根据步骤4.1得到的各种不同来源的知识图谱的关系嵌入表达输入到全连接层中,训练矩阵M。
第三步:根据第二步得到的矩阵M,将不同来源的知识图谱编码进一个统一的嵌入空间中。
步骤5:在向量空间中计算实体之间的距离并对齐。
具体地,步骤5包括以下步骤:
第一步:根据步骤3得到的多语言知识图谱,遍历其中某一种数据来源的知识图谱中的实体。
第二步:根据步骤4得到的向量空间,对上述每个实体进行映射,得到每个实体的向量表达形式。
第三步:遍历所有其他数据来源知识图谱中实体的向量表达形式,将第二步中得到的每个实体的向量表达形式与其进行余弦相似度计算,将计算结果存入结果表中。
第四步:将上述结果表进行降序排序,得分最高的即为第一步中所选知识图谱的各实体的对齐实体。
第五步:将第四步得到的对齐实体,加入到第一步中所选的知识图谱中,得到最终的知识图谱跨语言对齐结果。
有益效果
本发明方法,与现有技术相比,具有以下优点:
1.本方法充分利用了知识图谱结构信息,通过图表示学习方法将不同语言知识图谱中的实体合并到统一的空间中,并根据实体在联合语义空间中的距离进行对齐,保证了融合后的数据更准确、全面。
2.本方法提供了从海量文本数据中抽取结构化知识的手段,并对多语言数据进行进一步的整合分析,规范各语言实体数据的统一描述和组织关联,展示数据之间的结构化关系,提高了在跨语言领域进行快速分析和智能搜索的效率。
附图说明
图1是本发明方法的整体流程;
图2是本发明方法的数据获取流程图;
图3是本发明方法的数据处理并建立多语言知识图谱的流程图;
图4是本发明方法依托的图表示学习模型的详细架构。
图5是本发明方法的系统架构。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例,对本发明进一步详细说明。应当理解,此处所描述的具体实施例,仅仅用以解释本发明,并不用于限定本发明。
实施例
本实施例描述了本发明所述方法的一个具体实施例。
实施示意图如图1整体流程所示,图4是本发明一种基于图表示学习的知识图谱跨语言对齐方法依托的图表示学习模型的详细架构。本发明具体实施时,步骤1中获取数据集是从各百科类网站采集的多语言数据,清洗后保存在Neo4j图数据库中。
使用本发明提出的方法,对图数据库中的多语言数据进行知识图谱构建,将构建好的知识图谱通过图表示学习嵌入到向量空间中,再通过预先标记好的种子对齐实体将多源知识图谱处理到统一向量空间中,在此空间内进行实体相似度计算并对齐,保存在图数据库中,用户可通过数据库自带展示界面进行查看。
图2是本发明一种基于图表示学习的知识图谱跨语言对齐方法的数据获取流程。
按照本发明中介绍的步骤1,从各个百科类网站爬取数据,将爬取到的html数据全部存入本地,对数据进行分类清洗,去除脏数据。
图3是本发明一种基于图表示学习的知识图谱跨语言对齐方法的数据处理流程。
按照本发明中介绍的步骤2,读取本地文件夹中的全部html文件,对html数据进行解析,将索引更新到表1中,抽取其中的关系三元组,转换为json格式,更新到表2中。
为了利用图表示学习方法进行实体对齐,需要先构建知识图谱。按照本发明中介绍的步骤3,将多源json格式数据导入图数据库neo4j,在图数据库中为每种来源的数据进行属性标记,根据不同来源构建不同的知识图谱,将相关信息同步到neo4j中,输入到图表示学习所用到的图卷积神经网络模型中。
表1索引表
Figure BDA0003462426980000061
Figure BDA0003462426980000071
表2 json数据表
Figure BDA0003462426980000072
图4是本发明一种基于图表示学习的知识图谱跨语言对齐方法依托的图表示学习模型的详细架构。
为了更好的利用知识图谱的图结构信息,按照本发明中介绍的步骤4.1在进行知识表示学习时,需要首先对数据中的属性信息进行抽取,将抽取后的实体—属性—属性值三元组加入到向量空间矩阵中,将不同知识图谱来源的向量空间矩阵分别输入到图卷积神经网络中,获取到来自不同向量空间矩阵的嵌入数据,按照本发明中介绍的步骤4.2,利用本发明中介绍的步骤2中得到的预先对齐的种子对齐实体,将将不同来源的知识图谱嵌入到统一的向量空间,来提升图表示学习后,实体对齐的准确度。
图5是本发明所述一种基于图表示学习的知识图谱跨语言对齐方法的系统架构。
首先,按照本发明中介绍的步骤1进行数据获取,按照本发明中介绍的步骤2进行数据预处理后,按照本发明中介绍的步骤3构建多语言知识图谱并加入到neo4j图数据库中。
然后,读取图数据库中的全部多语言知识图谱,按照本发明中介绍的步骤4,将不同语言的知识图谱嵌入到不同的向量空间,并利用步骤2得到的种子对齐实体来统一向量空间。
最后,按照本发明中介绍的步骤5,在统一的向量空间中计算实体间的相似度,对不同语言的知识图谱自动进行融合,同时由于基于图表示学习的实体对齐的有效性,能够保证融合后的跨语言知识图谱更准确且信息丰富充足。
以上所述为本发明的较佳实施例而已,本发明不应该局限于该实施例和附图所公开的内容。凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。

Claims (6)

1.一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,包括以下步骤:
步骤1:获取多语言数据,包括以下步骤:
首先,爬取百科类多语言网站数据,并以html格式存到本地;
然后,对爬取到的数据进行分类,去除脏数据;
步骤2:解析根据步骤1得到的html格式的多语言数据,处理成三元组类型的json格式数据;
步骤3:根据步骤2得到的json格式数据建立多语言知识图谱,包括以下步骤:
步骤3.1:针对爬到的不同来源的数据建立索引;
步骤3.2:根据步骤3.1建立的索引,对不同来源的数据分别构建知识图谱;
步骤4:根据步骤3得到的不同来源的多语言知识图谱,嵌入到统一的向量空间,包括以下步骤:
步骤4.1:关系嵌入,其中,对于由步骤3得到的每种不同来源的知识图谱,都分别进行关系嵌入;
步骤4.2:嵌入空间变换,方法如下:
第一步:随机初始化网络的权重矩阵M;
第二步:将步骤2中得到的种子对齐实体和根据步骤4.1得到的各种不同来源的知识图谱的关系嵌入表达输入到全连接层中,训练矩阵M;
第三步:根据第二步得到的矩阵M,将不同来源的知识图谱编码进一个统一的嵌入空间中;
步骤5:在向量空间中计算实体之间的距离并对齐。
2.如权利要求1所述的一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,步骤1中对数据进行分类,采用以下方法:
第一步:遍历存到本地的数据,得到包含所有数据的实体名称的列表;
第二步:根据第一步得到的数据实体名称列表,随机抽取M条数据,将这M条数据进行人工标注,划分为训练集及验证集;
第三步:使用Bert模型对第二步中得到的训练集进行预训练微调,在验证集进行交叉验证,当准确度达到90%以上后,将第二步中得到的全部M条数据输入到Bert模型中进行训练,得到完整的预训练模型;
第四步:使用第三步中得到的预训练模型,对第一步中得到的包含所有数据实体名称的列表进行分类,去除掉爬取结果中的脏数据,得到最终的包含数据实体名称的列表;
第五步:根据最终的包含数据实体名称的列表,对存在本地的html数据进行筛选保存。
3.如权利要求1所述的一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,步骤2包括以下步骤:
首先,对步骤1得到的html格式的多语言数据进行遍历,找到其中的表格信息;
然后,根据上述的表格信息,抽取其中的文字内容,根据数据实体名称建立实体—关系—实体三元组;
最后,将上述得到的三元组,存储为json格式数据文件,保存在本地,并对一部分三元组进行打标,得到种子对齐实体。
4.如权利要求1所述的一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,步骤3中,建立知识图谱采用以下方法:
第一步:根据步骤2得到的json格式数据文件,遍历每种语言数据的三元组,得到其头节点、关系、尾节点;
第二步:根据第一步得到的头节点、关系和尾节点,针对数据实体名称建立字段,得到每种语言数据的全部属性信息;
第三步:根据步骤3.1建立的索引,找到不同来源的数据,对于同一来源的数据,利用py2neo库进行标记,并将第二步得到的数据导入关系型数据库Neo4j,根据不同数据源和语种,分别建立知识图谱。
5.如权利要求1所述的一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,步骤4.1中,关系嵌入的步骤如下:
第一步:根据步骤3得到的每种不同来源的知识图谱,按照其实体—关系—实体的结构,建立知识图谱的邻接矩阵A;
第二步:为第一步得到的邻接矩阵添加自环I,I为单位矩阵,得到矩阵
Figure FDA0003462426970000021
Figure FDA0003462426970000022
第三步:计算第二步得到的矩阵
Figure FDA0003462426970000023
的对角度矩阵
Figure FDA0003462426970000024
第四步:随机初始化网络的权重矩阵W;
第五步:计算第二步得到的矩阵
Figure FDA0003462426970000031
的特征矩阵H(i)
第六步:基于式(1),根据第五步得到的当前层的特征矩阵H(i),计算该层的输出H(i+1),H(i+1)即为知识图谱的关系嵌入表达形式;
Figure FDA0003462426970000032
其中,σ表示激活函数。
6.如权利要求1所述的一种基于图表示学习的知识图谱跨语言对齐方法,其特征在于,步骤5包括以下步骤:
第一步:根据步骤3得到的多语言知识图谱,遍历其中某一种数据来源的知识图谱中的实体;
第二步:根据步骤4得到的向量空间,对上述每个实体进行映射,得到每个实体的向量表达形式;
第三步:遍历所有其他数据来源知识图谱中实体的向量表达形式,将第二步中得到的每个实体的向量表达形式与其进行余弦相似度计算,将计算结果存入结果表中;
第四步:将上述结果表进行降序排序,得分最高的即为第一步中所选知识图谱的各实体的对齐实体;
第五步:将第四步得到的对齐实体,加入到第一步中所选的知识图谱中,得到最终的知识图谱跨语言对齐结果。
CN202210020693.5A 2022-01-10 2022-01-10 一种基于图表示学习的知识图谱跨语言对齐方法 Pending CN114443855A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210020693.5A CN114443855A (zh) 2022-01-10 2022-01-10 一种基于图表示学习的知识图谱跨语言对齐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210020693.5A CN114443855A (zh) 2022-01-10 2022-01-10 一种基于图表示学习的知识图谱跨语言对齐方法

Publications (1)

Publication Number Publication Date
CN114443855A true CN114443855A (zh) 2022-05-06

Family

ID=81368441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210020693.5A Pending CN114443855A (zh) 2022-01-10 2022-01-10 一种基于图表示学习的知识图谱跨语言对齐方法

Country Status (1)

Country Link
CN (1) CN114443855A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114969367A (zh) * 2022-05-30 2022-08-30 大连民族大学 基于多方面子任务交互的跨语言实体对齐方法
CN115879550A (zh) * 2022-12-21 2023-03-31 北京政务科技有限公司 知识图谱的构建方法、装置及存储介质
CN116069956A (zh) * 2023-03-29 2023-05-05 之江实验室 基于混合注意力机制的药物知识图谱实体对齐方法及装置
CN116257643A (zh) * 2023-05-09 2023-06-13 鹏城实验室 跨语言实体对齐方法、装置、设备及可读存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114969367A (zh) * 2022-05-30 2022-08-30 大连民族大学 基于多方面子任务交互的跨语言实体对齐方法
CN114969367B (zh) * 2022-05-30 2024-04-30 大连民族大学 基于多方面子任务交互的跨语言实体对齐方法
CN115879550A (zh) * 2022-12-21 2023-03-31 北京政务科技有限公司 知识图谱的构建方法、装置及存储介质
CN116069956A (zh) * 2023-03-29 2023-05-05 之江实验室 基于混合注意力机制的药物知识图谱实体对齐方法及装置
CN116257643A (zh) * 2023-05-09 2023-06-13 鹏城实验室 跨语言实体对齐方法、装置、设备及可读存储介质
CN116257643B (zh) * 2023-05-09 2023-08-25 鹏城实验室 跨语言实体对齐方法、装置、设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN112199511B (zh) 跨语言多来源垂直领域知识图谱构建方法
CN111708773B (zh) 一种多源科创资源数据融合方法
Jung Semantic vector learning for natural language understanding
CN103049435B (zh) 文本细粒度情感分析方法及装置
CN111723215A (zh) 基于文本挖掘的生物技术信息知识图谱构建装置与方法
CN111967761B (zh) 一种基于知识图谱的监控预警方法、装置及电子设备
CN114443855A (zh) 一种基于图表示学习的知识图谱跨语言对齐方法
CN113806563B (zh) 面向多源异构建筑人文史料的建筑师知识图谱构建方法
CN112131872A (zh) 一种文献作者重名消歧方法和构建系统
CN107180045A (zh) 一种互联网文本蕴含地理实体关系的抽取方法
CN113360582B (zh) 基于bert模型融合多元实体信息的关系分类方法及系统
CN116127090A (zh) 基于融合和半监督信息抽取的航空系统知识图谱构建方法
CN111241410A (zh) 一种行业新闻推荐方法及终端
CN116244497A (zh) 一种基于异质数据嵌入的跨域论文推荐方法
CN114997288A (zh) 一种设计资源关联方法
CN116050408A (zh) 一种土木规范领域知识图谱构建方法及构建系统
CN113610626A (zh) 银行信贷风险识别知识图谱构建方法、装置、计算机设备及计算机可读存储介质
Khekare et al. Design of Automatic Key Finder for Search Engine Optimization in Internet of Everything
Ziv et al. CompanyName2Vec: Company entity matching based on job ads
Xu et al. Estimating similarity of rich internet pages using visual information
Lehmberg Web table integration and profiling for knowledge base augmentation
Lu et al. Overview of knowledge mapping construction technology
Liu et al. A semi-automated entity relation extraction mechanism with weakly supervised learning for Chinese Medical webpages
Xu et al. Research on intelligent campus and visual teaching system based on Internet of things
Zhao Construction of Safety Early Warning Model for Construction of Engineering Based on Convolution Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination