CN111552817A - 一种电力科技成果知识图谱补全方法 - Google Patents
一种电力科技成果知识图谱补全方法 Download PDFInfo
- Publication number
- CN111552817A CN111552817A CN202010288192.6A CN202010288192A CN111552817A CN 111552817 A CN111552817 A CN 111552817A CN 202010288192 A CN202010288192 A CN 202010288192A CN 111552817 A CN111552817 A CN 111552817A
- Authority
- CN
- China
- Prior art keywords
- word
- electric power
- vector
- knowledge graph
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000005516 engineering process Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 57
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000007246 mechanism Effects 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000844 transformation Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000001228 spectrum Methods 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Public Health (AREA)
- Water Supply & Treatment (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种电力科技成果知识图谱补全方法,与现有技术相比解决了难以针对电力科技成果知识图谱进行补全的缺陷。本发明包括以下步骤:电力科技成果数据的获取;初始三元组向量化;设定Transformers模型;生成新的三元组数据;电力科技成果知识图谱补全结果的获得。本发明在应对数据稀疏问题时可以自动挖掘知识图谱中的隐含关系,弥补了大多数基于表示学习模型完成电力科技成果知识图谱补全任务耗时耗力的缺点,极大地提高了电力科技成果知识图谱补全的效率和质量。
Description
技术领域
本发明涉及电力科技知识图谱技术领域,具体来说是一种电力科技成果知识图谱补全方法。
背景技术
知识图谱的概念最早于2012年由Google公司提出,在该概念的技术支持上,搜索引擎实现了由“strings”向“things”转变,这使得机器能够更好地理解得出用户搜索词代表的真实含义。知识图谱这一技术目前已广泛应用于人工智能的多个领域,包括自动问答、信息抽取等,是人工智能研究领域的重要部分,也是当前各行各业实现更佳数据处理能力的重要手段。
然而在大规模的知识图谱中,其知识往往是不完备的,需要不断地补充其中的实体关系。知识图谱补全算法就是在解决知识图谱中的数据稀疏问题,从而使知识图谱更加完整。知识图谱补全方法中常见方法有学习知识嵌入的模型如距离模型、张量神经网络模型、Trans系列模型等。已成功应用于各种任务,如图片分类、神经机器翻译、文本分类等。特别是Trans系列模型结构简单,不需要依赖于其他的语法树、外部特征或者知识库,具有良好的泛化性。
电力科技成果知识图谱不同于其他领域的数据库内容,电力科技成果涉及的学科、专业范围过于庞杂,且随着科学技术的发展不断变化,不间断地出现新实体和新关系,是个复杂的知识系统工程。而大部分知识图谱补全方法存在共同的局限性,即只能在已知的知识图谱中的实体和关系基础之上进行补全,无法自动获取新的实体或关系。如果直接应用trans系列模型等方法,很显然将无法满足电力科技成果知识图谱的自动添加新实体及新关系的需求,限制了电力科技成果知识图谱的自动更新和扩展,造成电力科技成果知识图谱补全工作呈现低效率、高计算难度和复杂度的现象,致使电力科技成果知识图谱难以实用。
因此,如何有效实现电力科技成果知识图谱的有效补全已经成为急需解决的技术问题。
发明内容
本发明的目的是为了解决现有技术中难以针对电力科技成果知识图谱进行补全的缺陷,提供一种电力科技成果知识图谱补全方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种电力科技成果知识图谱补全方法,包括以下步骤:
电力科技成果数据的获取:获取电力科技成果中文语料库并作预处理,利用现有抽取技术从中文语料库中抽取出初始三元组数据;
初始三元组向量化:将初始三元组数据向量化处理为transformer模型能够直接处理的文本词向量矩阵;
设定Transformers模型:对Transformers模型进行预设定;
生成新的三元组数据:基于已抽取的初始三元组使用Transformers模型进行建模,生成新的三元组;
电力科技成果知识图谱补全结果的获得:设定生成结果投影至Vocab层,整理生成的三元组,结合初始三元组与新三元组实现知识图谱的补全。
所述初始三元组向量化包括以下步骤:
设定电力科技成果中文语料库中三元组X是由n个单词组成,其表达式如下:
X=[x0,…,xi,…,xn],
其中V*是词表大小,d是词向量的维度;
将文本词向量矩阵W中每个单词均转换成词向量的表示ei,其表达式如下:
ei=Wxi;
将电力科技成果中文语料库中三元组X转化为以下形式:
I=[e0,…,ei,…,en],
ht=et+pt, (1)
其中,et是经过t-1时刻转换模型得到的序列中的某个词向量,pt表示t-1时刻转换模型的某个词向量的位置编码,ht是transformerblock中t时刻的输入。
所述设定Transformers模型包括以下步骤:
设定输入层:设定预处理文本数据集将训练文本输送到文本词嵌入层,将句子转换成注意力层能够直接处理的文本词向量矩阵;
设定注意力层:设定注意力机制对输入文本信息的特征矩阵多次计算注意力,用以捕获句子的长距离依赖性、学习不同位置的不同语义空间的序列信息;
设定多层transformerblock计算次数;
设定线性层与softmax层,对模型的输出结果用线性层将其映射到vocab的维度,得到每个单词的可能性,最终经过softmax层输出单词。
所述生成新的三元组数据包括以下步骤:
注意力机制的输入,具体为以下形式:
I=[e0,…,ei,…,en]
Q=WQI
K=WKI
V=WVI
其中,I是三元组X的向量表示;每个单词在注意力机制中的输入为Q、K、V,WQ、WK、WV分别为Q、K、V的权重;
注意力机制的每个Head计算公式为:
公式(2)计算句子中其他单词对某个位置单词的得分,该分数决定了编码该单词时对句子中其他单词的注意程度;
softmax层计算公式为:
其中,dk是输入向量的维数;
使得出的分数值均为正值且和为1,决定了每个单词对某位置单词的贡献;
多个transformerblock的计算过程:
将上一层transformerblock的输出作为Multi-Head Attention机制的输入,即
其中,对于Multi-HeadAttention机制的每个Head的计算输出向量为:
Hi=ATTENTION(Q,K,V)
以每个Head的输出Hi为列向量,将多个Head输出向量联结为以下矩阵:
MultiH(Q,K,V)=[H1;…;Hb]WO
其中,WO是关注头的联结输出的输出投影;
transformerblock中存在以下变换:
本发明的一种电力科技成果知识图谱补全方法,与现有技术相比在应对数据稀疏问题时可以自动挖掘知识图谱中的隐含关系,弥补了大多数基于表示学习模型完成电力科技成果知识图谱补全任务耗时耗力的缺点,极大地提高了电力科技成果知识图谱补全的效率和质量。
本发明涉及的基于Transformers网络的知识图谱补全算法,与现有方法使用的神经网络如RNN相比,该网络不需要循环计算,而是直接进行并行处理序列中所有的单词,同时借助自注意力机制可以从距离较远的词中提取含义,使得模型运行速度快且生成三元组质量高。本发明可应用于除电力行业的其他行业的行业知识图谱补全,实现各行各业数据间的互联互通、高速反馈,提供更强有力、更具价值的技术支持。
附图说明
图1为本发明的方法顺序图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,说明如下:
通常处理Seq2Seq序列问题的解决办法是基于RNN的算法,但是该算法存在序列依赖关系,下一个时间步的隐藏计算依赖于上一步的计算,限制了模型的并行能力,且其运算能力也不是很理想。基于LSTM模型不能很好地并行,造成训练的时间往往很长;基于CNN的算法也需要增加卷积层数来扩大视野,同样运算量过于庞大,无法应用到电力科技成果知识图谱。
如图1所示,本发明所述的一种电力科技成果知识图谱补全方法,包括以下步骤:
第一步,电力科技成果数据的获取:获取电力科技成果中文语料库并作预处理,利用现有抽取技术从中文语料库中抽取出初始三元组数据。
第二步,初始三元组向量化:将初始三元组数据向量化处理为Transformers模型能够直接处理的文本词向量矩阵。其包括以下步骤:
(1)设定电力科技成果中文语料库中三元组X是由n个单词组成,其表达式如下:
X=[x0,…,xi,…,xn],
其中V*是词表大小,d是词向量的维度;
(2)将文本词向量矩阵W中每个单词均转换成词向量的表示ei,其表达式如下:ei=Wxi;
(3)将电力科技成果中文语料库中三元组X转化为以下形式:
I=[e0,…,ei,…,en],
ht=et+pt, (1)
其中,et是经过t-1时刻转换模型得到的序列中的某个词向量,pt表示t-1时刻转换模型的某个词向量的位置编码,ht是transformerblock中t时刻的输入。
第三步,设定Transformers模型:对Transformers模型进行预设定。该模型相较于其他模型而言,可在不依赖任何外部数据的情况下,利用其中多个transformerblock网络捕获上下文信息和结构信息,保留原始三元组的特征,并行处理序列中的所有单词,自动挖掘已有数据中的信息,学习能力更佳,处理速度更快;在模型结构设计上,可自主设计注意力机制的层数等参数,更灵活地应对不同的学习任务。其包括以下步骤:
(1)设定输入层:设定预处理文本数据集将训练文本输送到文本词嵌入层,将句子转换成注意力层能够直接处理的文本词向量矩阵;
(2)设定注意力层:设定注意力机制对输入文本信息的特征矩阵多次计算注意力,用以捕获句子的长距离依赖性、学习不同位置的不同语义空间的序列信息;
(3)设定多层transformerblock计算次数;
(4)设定线性层与softmax层,对模型的输出结果用线性层将其映射到vocab的维度,得到每个单词的可能性,最终经过softmax层输出单词。
第四步,生成新的三元组数据:基于已抽取的初始三元组使用Transformers模型进行建模,生成新的三元组。
目前电力科技成果领域数据丰富庞大,传统模型面对大规模的电力科技成果知识图谱构建任务,其需要计算大量参数,且需要根据初始语料库更新不断调整参数与模型结构,而其生成的新三元组准确率不高。
本发明针对电力科技成果语料的丰富性和庞大性,设计多层并行处理文本的网络模型,运行模型时参数大大减少,可灵活处理电力科技成果领域的庞大语料库。同时设计多层注意力机制将电力科技成果语料做上下文与长距离文本注意,做到自动挖掘初始数据中的隐含关系,生成有意义的正确三元组,实现电力科技成果知识图谱的补全。其具体步骤如下:
A1)注意力机制的输入,具体为以下形式:
I=[e0,…,ei,…,en]
Q=WQI
K=WKI
V=WVI
其中,I是三元组X的向量表示;每个单词在注意力机制中的输入为Q、K、V,WQ、WK、WV分别为Q、K、V的权重;
A2)注意力机制的每个Head计算公式为:
公式(2)计算句子中其他单词对某个位置单词的得分,该分数决定了编码该单词时对句子中其他单词的注意程度;
softmax层计算公式为:
其中,dk是输入向量的维数;
A3)使得出的分数值均为正值且和为1,决定了每个单词对某位置单词的贡献;
A4)多个transformerblock的计算过程:
将上一层transformerblock的输出作为Multi-Head Attention机制的输入,即
其中,对于Multi-HeadAttention机制的每个Head的计算输出向量为:
Hi=ATTENTION(Q,K,V)
以每个Head的输出Hi为列向量,将多个Head输出向量联结为以下矩阵:
MultiH(Q,K,V)=[H1;…;Hb]WO
其中,WO是关注头的联结输出的输出投影;
A5)transformerblock中存在以下变换:
第五步,电力科技成果知识图谱补全结果的获得。设定生成结果投影至Vocab层,整理生成的三元组,结合初始三元组与新三元组实现知识图谱的补全。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (4)
1.一种电力科技成果知识图谱补全方法,其特征在于,包括以下步骤:
11)电力科技成果数据的获取:获取电力科技成果中文语料库并作预处理,利用现有抽取技术从中文语料库中抽取出初始三元组数据;
12)初始三元组向量化:将初始三元组数据向量化处理为Transformers模型能够直接处理的文本词向量矩阵;
13)设定Transformers模型:对Transformers模型进行预设定;
14)生成新的三元组数据:基于已抽取的初始三元组使用Transformers模型进行建模,生成新的三元组;
15)电力科技成果知识图谱补全结果的获得:设定生成结果投影至Vocab层,整理生成的三元组,结合初始三元组与新三元组实现知识图谱的补全。
2.根据权利要求1所述的一种电力科技成果知识图谱补全方法,其特征在于,所述初始三元组向量化包括以下步骤:
21)设定电力科技成果中文语料库中三元组X是由n个单词组成,其表达式如下:
X=[x0,…,xi,…,xn],
其中V*是词表大小,d是词向量的维度;
22)将文本词向量矩阵W中每个单词均转换成词向量的表示ei,其表达式如下:ei=Wxi;
23)将电力科技成果中文语料库中三元组X转化为以下形式:
I=[e0,…,ei,…,en],
ht=et+pt,(1)
其中,et是经过t-1时刻转换模型得到的序列中的某个词向量,pt表示t-1时刻转换模型的某个词向量的位置编码,ht是transformerblock中t时刻的输入。
3.根据权利要求1所述的一种电力科技成果知识图谱补全方法,其特征在于,所述设定Transformers模型包括以下步骤:
31)设定输入层:设定预处理文本数据集将训练文本输送到文本词嵌入层,将句子转换成注意力层能够直接处理的文本词向量矩阵;
32)设定注意力层:设定注意力机制对输入文本信息的特征矩阵多次计算注意力,用以捕获句子的长距离依赖性、学习不同位置的不同语义空间的序列信息;
33)设定多层transformerblock计算次数;
34)设定线性层与softmax层,对模型的输出结果用线性层将其映射到vocab的维度,得到每个单词的可能性,最终经过softmax层输出单词。
4.根据权利要求1所述的一种电力科技成果知识图谱补全方法,其特征在于,所述生成新的三元组数据包括以下步骤:
421)注意力机制的输入,具体为以下形式:
I=[e0,…,ei,…,en]
Q=WQI
K=WKI
V=WVI
其中,I是三元组X的向量表示;每个单词在注意力机制中的输入为Q、K、V,WQ、WK、WV分别为Q、K、V的权重;
422)注意力机制的每个Head计算公式为:
公式(2)计算句子中其他单词对某个位置单词的得分,该分数决定了编码该单词时对句子中其他单词的注意程度;
softmax层计算公式为:
其中,dk是输入向量的维数;
423)使得出的分数值均为正值且和为1,决定了每个单词对某位置单词的贡献;
424)多个transformerblock的计算过程:
将上一层transformerblock的输出作为Multi-Head Attention机制的输入,即
其中,对于Multi-HeadAttention机制的每个Head的计算输出向量为:
Hi=ATTENTION(Q,K,V)
以每个Head的输出Hi为列向量,将多个Head输出向量联结为以下矩阵:
MultiH(Q,K,V)=[H1;…;Hb]WO
其中,WO是关注头的联结输出的输出投影;
425)transformerblock中存在以下变换:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010288192.6A CN111552817A (zh) | 2020-04-14 | 2020-04-14 | 一种电力科技成果知识图谱补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010288192.6A CN111552817A (zh) | 2020-04-14 | 2020-04-14 | 一种电力科技成果知识图谱补全方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111552817A true CN111552817A (zh) | 2020-08-18 |
Family
ID=72002911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010288192.6A Pending CN111552817A (zh) | 2020-04-14 | 2020-04-14 | 一种电力科技成果知识图谱补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111552817A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836007A (zh) * | 2021-01-25 | 2021-05-25 | 北京理工大学 | 一种基于语境化注意力网络的关系元学习方法 |
CN113190651A (zh) * | 2021-04-23 | 2021-07-30 | 宁波乾睿导航科技有限公司 | 基于定额知识图谱技术的电力数据全局知识图谱补全方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2232691A2 (en) * | 2007-11-30 | 2010-09-29 | Rowan Technologies Inc. | Multiphase grid synchronized regulated current source inverter systems |
WO2012074438A2 (ru) * | 2010-11-30 | 2012-06-07 | Arsenich Svyatoslav Ivanovich | Проекционная система с торцевой проекцией и видеопроектор для этой системы |
CN110334219A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 |
CN110377710A (zh) * | 2019-06-17 | 2019-10-25 | 杭州电子科技大学 | 一种基于多模态融合的视觉问答融合增强方法 |
CN110737778A (zh) * | 2019-09-04 | 2020-01-31 | 北京邮电大学 | 基于知识图谱和Transformer的专利推荐方法 |
CN110750652A (zh) * | 2019-10-21 | 2020-02-04 | 广西大学 | 结合上下文实体词和知识的故事结局生成方法 |
CN110825881A (zh) * | 2019-09-26 | 2020-02-21 | 中国电力科学研究院有限公司 | 一种建立电力知识图谱的方法 |
CN110866121A (zh) * | 2019-09-26 | 2020-03-06 | 中国电力科学研究院有限公司 | 一种面向电力领域知识图谱构建方法 |
-
2020
- 2020-04-14 CN CN202010288192.6A patent/CN111552817A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2232691A2 (en) * | 2007-11-30 | 2010-09-29 | Rowan Technologies Inc. | Multiphase grid synchronized regulated current source inverter systems |
WO2012074438A2 (ru) * | 2010-11-30 | 2012-06-07 | Arsenich Svyatoslav Ivanovich | Проекционная система с торцевой проекцией и видеопроектор для этой системы |
CN110377710A (zh) * | 2019-06-17 | 2019-10-25 | 杭州电子科技大学 | 一种基于多模态融合的视觉问答融合增强方法 |
CN110334219A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 |
CN110737778A (zh) * | 2019-09-04 | 2020-01-31 | 北京邮电大学 | 基于知识图谱和Transformer的专利推荐方法 |
CN110825881A (zh) * | 2019-09-26 | 2020-02-21 | 中国电力科学研究院有限公司 | 一种建立电力知识图谱的方法 |
CN110866121A (zh) * | 2019-09-26 | 2020-03-06 | 中国电力科学研究院有限公司 | 一种面向电力领域知识图谱构建方法 |
CN110750652A (zh) * | 2019-10-21 | 2020-02-04 | 广西大学 | 结合上下文实体词和知识的故事结局生成方法 |
Non-Patent Citations (2)
Title |
---|
TADAO MIZUTANI 等: "《Improved Power Transistorized Uninterruptible Power Supply》" * |
余姗姗 等: "《基于依存树及距离注意力的句子属性情感分类》" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836007A (zh) * | 2021-01-25 | 2021-05-25 | 北京理工大学 | 一种基于语境化注意力网络的关系元学习方法 |
CN112836007B (zh) * | 2021-01-25 | 2023-01-17 | 北京理工大学 | 一种基于语境化注意力网络的关系元学习方法 |
CN113190651A (zh) * | 2021-04-23 | 2021-07-30 | 宁波乾睿导航科技有限公司 | 基于定额知识图谱技术的电力数据全局知识图谱补全方法 |
CN113190651B (zh) * | 2021-04-23 | 2022-09-09 | 宁波乾睿导航科技有限公司 | 基于定额知识图谱技术的电力数据全局知识图谱补全方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490946B (zh) | 基于跨模态相似度和生成对抗网络的文本生成图像方法 | |
CN110765966B (zh) | 一种面向手写文字的一阶段自动识别与翻译方法 | |
CN109948165B (zh) | 基于混合注意力网络的细粒度情感极性预测方法 | |
CN108717574B (zh) | 一种基于连词标记和强化学习的自然语言推理方法 | |
CN110781306B (zh) | 一种英文文本的方面层情感分类方法及系统 | |
CN110110080A (zh) | 文本分类模型训练方法、装置、计算机设备及存储介质 | |
CN110298037A (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN111177394A (zh) | 基于句法注意力神经网络的知识图谱关系数据分类方法 | |
Shi et al. | Deep adaptively-enhanced hashing with discriminative similarity guidance for unsupervised cross-modal retrieval | |
CN111783459A (zh) | 一种基于改进Transformer+CRF的老挝语命名实体识别方法 | |
CN109063164A (zh) | 一种基于深度学习的智能问答方法 | |
CN110457514A (zh) | 一种基于深度哈希的多标签图像检索方法 | |
CN109977250A (zh) | 融合语义信息和多级相似性的深度哈希图像检索方法 | |
CN110516145B (zh) | 一种基于句向量编码的信息搜索方法 | |
CN110083729A (zh) | 一种图像搜索的方法及系统 | |
CN113157919B (zh) | 语句文本方面级情感分类方法及系统 | |
CN111680169A (zh) | 一种基于bert模型技术的电力科技成果数据抽取方法 | |
CN111552817A (zh) | 一种电力科技成果知识图谱补全方法 | |
CN115688752A (zh) | 一种基于多语义特征的知识抽取方法 | |
CN114004220A (zh) | 一种基于cpc-ann的文本情绪原因识别方法 | |
CN114238652A (zh) | 一种用于端到端场景的工业故障知识图谱建立方法 | |
CN111831624A (zh) | 数据表创建方法、装置、计算机设备及存储介质 | |
CN114579707A (zh) | 一种基于bert神经网络与多语义学习的方面级情感分析方法 | |
Li et al. | Multimodal fusion with co-attention mechanism | |
CN111737467A (zh) | 一种基于分段卷积神经网络的对象级情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20231229 |
|
AD01 | Patent right deemed abandoned |