CN116561322B - 网络信息的关系抽取方法、关系抽取装置及介质 - Google Patents
网络信息的关系抽取方法、关系抽取装置及介质 Download PDFInfo
- Publication number
- CN116561322B CN116561322B CN202310788192.6A CN202310788192A CN116561322B CN 116561322 B CN116561322 B CN 116561322B CN 202310788192 A CN202310788192 A CN 202310788192A CN 116561322 B CN116561322 B CN 116561322B
- Authority
- CN
- China
- Prior art keywords
- relation
- instance
- sample
- entity
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000000605 extraction Methods 0.000 claims abstract description 97
- 238000012549 training Methods 0.000 claims abstract description 67
- 239000013598 vector Substances 0.000 claims description 168
- 230000007246 mechanism Effects 0.000 claims description 51
- 230000006870 function Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 23
- 238000002372 labelling Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 235000003642 hunger Nutrition 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000037351 starvation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008033 biological extinction Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了网络信息的关系抽取方法、关系抽取装置及介质,关系抽取方法包括:获取网络信息的样本实例,网络信息的每个样本实例被标注出实体和实体对应的实体关系;按照实体关系的类别对样本实例进行小样本抽取,得到N个支持集和N个查询集,支持集中包括K个样本实例,查询集包括Q个样本实例,N、K和Q均为正整数;通过支持集和查询集对关系抽取模型进行训练;利用经过训练的关系抽取模型对网络信息的数据进行关系抽取。在本申请实施例中,在传统原型网络的基础上引入两个维度的特征信息和关系描述语义提高模型的分类性能和泛化能力,突出语句中的重要的语义特征,增强模型的准确性和鲁棒性。
Description
技术领域
本申请涉及网络安全技术领域,尤其涉及一种网络信息的关系抽取方法、关系抽取装置及介质。
背景技术
网络信息是由实体和关系构成的非结构化数据,一般通过深度学习方法进行分析,但是对网络信息进行关系抽取存在数据量匮乏,标注成本高等特点。实际应用场景下,在数据匮乏的环境下训练出来的模型往往达不到预期的标准。
相关技术下,采用远程监督的方法来自动获得大量带标签的训练数据,可以为有监督的关系抽取模型提供大量的训练语料,提高模型的分类准确率,但是远程监督获取的样本数据通常存在类型分布不均的问题,即关系类型分布的频率通常服从长尾分布,并且存在许多标注错误的样本,这些都会使模型抽取性能下降。这些都影响了网络安全人员对网络信息的分析。
发明内容
本申请实施例提供了一种网络信息的关系抽取方法、关系抽取装置及介质,提升了在网络信息的小样本场景下的关系抽取性能。
第一方面,本申请实施例提供了一种网络信息的关系抽取方法,包括:
获取网络信息的样本实例,所述网络信息的每个所述样本实例被标注出实体和所述实体对应的实体关系;
按照所述实体关系的类别对所述样本实例进行小样本抽取,得到N个支持集和N个查询集,所述支持集中包括K个所述样本实例,所述查询集包括Q个所述样本实例,所述N、K和Q均为正整数;
通过所述支持集和所述查询集对关系抽取模型进行训练;
利用经过训练的关系抽取模型对网络信息的数据进行关系抽取;
其中,所述关系抽取模型包括特征抽取模块和标签预测模块;
所述特征抽取模块用于对输入的所述样本实例和关系描述文本进行预训练,通过特征级注意力机制对所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量计算注意力权重,然后通过实例级注意力机制调整所述注意力权重;
所述标签预测模块用于计算通过特征级注意力机制输出的局部特征向量和所述关系描述文本的全局特征向量的第一实例级原型点,以及计算通过实例级注意力机制调整后输出的特征向量的第二实例级原型点,还用于拼接所述第一实例级原型点和所述第二实例级原型点得到混合原型网络,所述混合原型网络用于根据所述查询集的所述样本实例计算到各个原型点的距离,以得到预测的关系分类结果。
在一些实施例中,所述按照所述实体关系的类别对所述样本实例进行小样本抽取,得到N个支持集和N个查询集,包括:
创建关于所述实体关系的类别的元任务;
随机选择N个所述实体关系的类别,并从每个类别中随机选取K个所述样本实例分别构建所述元任务的支持集,再从每个类别中随机选取Q个所述样本实例分别构建所述元任务的查询集。
在一些实施例中,所述预训练包括:
根据预设字向量表将输入的所述样本实例和关系描述文本进行转换,得到对应的字向量;
根据所述样本实例和关系描述文本生成文本向量和位置向量;
按照所述样本实例和关系描述文本的对应关系,将所述字向量、所述文本向量和所述位置向量进行加和,并将加和结果作为输入向量;
将所述输入向量输入到BERT模型进行预训练。
在一些实施例中,所述将所述输入向量输入到BERT模型进行预训练,包括:
通过自注意力机制对所述输入向量中每个单词进行注意力计算,得到每个单词与上下文中其他单词之间的相关性,并输出所述输入向量中每个单词的向量表征。
在一些实施例中,所述通过特征级注意力机制对所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量计算注意力权重,包括:
通过预训练确定所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量;
将所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量输入到特征级注意力模块,得到局部特征向量表示;
其中,所述特征级注意力模块的注意力激活函数为softmax函数。
在一些实施例中,所述通过实例级注意力机制调整所述注意力权重,包括:
将所述局部特征向量表示和所述支持集的样本实例的全局特征向量输入到实例级注意力模块,得到注意力权重调整后的局部特征向量表示;
其中,所述实例级注意力模块的注意力激活函数为tanh函数。
在一些实施例中,所述第一实例级原型点和所述第二实例级原型点通过以下公式计算得到:
其中,表示实例级原型点,/>表示维度为d的特征向量,/>表示实体关系对应的关系描述文本,i为正整数,表示第i个所述样本实例。
在一些实施例中,所述获取网络信息的样本实例,包括:
获取网络信息的原始数据;
对所述原始数据进行文本预处理后,通过预设的标注工具标注出实体、实体关系和对应的关系描述文本,和/或,通过预设的实体类型定义表和关系类型定义表标注出实体、实体关系和对应的关系描述文本;
其中,所述实体类型定义表存储有实体名词与实体类型的对应关系,所述关系类型定义表存储有关系名词与关系类型、关系描述文本的对应关系。
第二方面,本申请实施例提供了一种网络信息的关系抽取装置,包括至少一个处理器和用于与所述至少一个处理器通信连接的存储器;所述存储器存储有能够被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的关系抽取方法。
第三方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如第一方面所述的关系抽取方法。
本申请实施例提供的网络信息的关系抽取方法、关系抽取装置及介质,至少具有如下有益效果:将网络信息的样本实例按照小样本方式进行抽取,得到N个支持集和N个查询集,在训练过程中加入关系描述文本,利用预训练语言模型和多层注意力机制在特征提取模块获得更加丰富的语义信息,通过混合原型网络对数据进行标签预测,其中多层注意力机制采用特征级注意力机制和实例级注意力机制结合,在混合原型网络中,利用关系描述文本获得查询集的第一实例级原型点和支持集的第二实例级原型点,通过拼接获得最终的混合原型网络,即在传统原型网络的基础上引入两个维度的特征信息和关系描述语义提高模型的分类性能和泛化能力,最后得到训练后的关系抽取模型,该模型将关系描述文本和查询集的实体特征加入支持集的训练过程中,突出语句中的重要的语义特征,增强模型的准确性和鲁棒性。
附图说明
图1是本申请一个实施例提供的网络信息的关系抽取方法的整体流程图;
图2是图1中步骤S102的具体方法流程图;
图3是本申请一个实施例提供的预训练方法的整体流程图;
图4是图3中步骤S304的具体方法流程图;
图5是本申请另一个实施例提供的网络信息的关系抽取方法的整体流程图;
图6是本申请另一个实施例提供的网络信息的关系抽取方法的整体流程图;
图7是图1中步骤S101的具体方法流程图;
图8是本申请一个示例提供的关系抽取模型的整体框架图;
图9是本申请一个示例提供的多层注意力模块的示意图;
图10是本申请一个实施例提供的网络信息的关系抽取装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
近年来,随着互联网应用规模不断扩大,漏洞数量呈爆发式增长。以高级持续性攻击(Advanced Persistent Threat,APT)为代表的新型威胁不断涌现,网络攻击方式越来越复杂、具有针对性,攻击成本不断下降,攻击手段也日益精进,关键的信息资产面临日益严峻的网络攻击。网络靶场作为支撑网络攻防演练、网络安全技术评测、网络安全人培养和网络新技术验证重大基础设施,受到高度重视。在这种背景下,对网络信息的分析利用变得越来越普及。通过大数据从各种来源收集、分析和处理的有关网络威胁的信息,这些信息旨在帮助网络安全人员了解威胁的本质、来源、目标和方法,并提供针对这些威胁的预警、应对和缓解措施。然而,机器往往无法对这类非结构化的文本数据进行很好的分析以获得有用的信息。并且随着现代网络安全防护对网络信息需求提高,依靠传统的提取方式已经无法满足这种需求。因此,如何从非结构化数据中获取结构化信息已成为当前研究的重点。
但是现有的深度学习方法需要大规模的监督训练数据,而网络信息进行关系抽取任务的训练数据存在数据量匮乏,标注成本高等特点。实际应用场景下,在数据匮乏的环境下训练出来的模型往往达不到预期的标准,为了解决数据匮乏的问题,研究人员开始采用远程监督的方法来自动获得大量带标签的训练数据。通过远程监督的手段可以为有监督的关系抽取模型提供大量的训练语料,提高模型的分类准确率,但是远程监督获取的样本数据通常存在类型分布不均的问题,并且存在许多标注错误的样本,这些都会使模型抽取性能下降。因为在实际应用环境中,关系类型分布的频率通常服从长尾分布,所以不可避免的会存在样本不足的类别。
由于缺乏大量标注的语料数据集,且人工标记的成本高,如何在小样本的场景下提高关系抽取任务模型的性能,是当前领域一个备受关注的问题。
为了解决上述问题,本实施例提供了一种网络信息的关系抽取方法、关系抽取装置及介质,将网络信息的样本实例按照小样本方式进行抽取,得到N个支持集和N个查询集,在训练过程中加入关系描述文本,利用预训练语言模型和多层注意力机制在特征提取模块获得更加丰富的语义信息,通过混合原型网络对数据进行标签预测,其中多层注意力机制采用特征级注意力机制和实例级注意力机制结合,在混合原型网络中,利用关系描述文本获得查询集的第一实例级原型点和支持集的第二实例级原型点,通过拼接获得最终的混合原型网络,即在传统原型网络的基础上引入两个维度的特征信息和关系描述语义提高模型的分类性能和泛化能力,最后得到训练后的关系抽取模型,该模型将关系描述文本和查询集的实体特征加入支持集的训练过程中,突出语句中的重要的语义特征,增强模型的准确性和鲁棒性。
参照图1,图1是本申请实施例提供的一种关系抽取方法,该网络信息的关系抽取方法包括但不限于以下步骤S101至步骤S104。
步骤S101,获取网络信息的样本实例;
需要说明的是,网络信息的每个样本实例被标注出实体和实体对应的实体关系。
在一些实施例中,获取网络信息的样本实例,其中,网络信息中的样本实例均被标注出实体和实体对应的实体关系,便于后续模型的训练。
步骤S102,按照实体关系的类别对样本实例进行小样本抽取,得到N个支持集和N个查询集;
需要说明的是,支持集中包括K个样本实例,查询集包括Q个样本实例,N、K和Q均为正整数。
在一些实施例中,由于命名实体识别数据集匮乏,难以获取较为合适的训练数据。为了更好的模拟实际应用场景,本实施例通过N-way K-shot方法对样本实例进行小样本抽取,按照实体关系的类别对样本跟实例进行采样,得到N个支持集和N个查询集,从而便于后续对支持集和查询集的预测,提高模型的分类性能和泛化能力。
步骤S103,通过支持集和查询集对关系抽取模型进行训练;
在一些实施例中,在模型测试阶段,通过支持集和查询集对关系抽取模型进行训练,训练过程需要关系抽取模型从N×K个数据中学习这N个类别样本的关系辨别,从而实现对支持集和查询集的实体关系的抽取,提高关系抽取模型的泛化能力和分类能力。
步骤S104,利用经过训练的关系抽取模型对网络信息的数据进行关系抽取。
在一些实施例中,利用经过训练的关系抽取模型对网络信息的数据进行关系抽取,从而实现对网络信息中实体以及实体关系的准确提取,提高关系抽取模型对网络信息的数据的关系抽取能力。
需要说明的是,关系抽取模型包括特征抽取模块和标签预测模块;
特征抽取模块用于对输入的样本实例和关系描述文本进行预训练,通过特征级注意力机制对支持集的样本实例的局部特征向量和关系描述文本的局部特征向量计算注意力权重,然后通过实例级注意力机制调整所述注意力权重;
标签预测模块用于计算通过特征级注意力机制输出的局部特征向量和关系描述文本的全局特征向量的第一实例级原型点,以及计算通过实例级注意力机制调整后输出的特征向量的第二实例级原型点,还用于拼接第一实例级原型点和第二实例级原型点得到混合原型网络,混合原型网络用于根据查询集的样本实例计算到各个原型点的距离,以得到预测的关系分类结果。
在一些实施例中,本实施例采用混合原型网络来代替传统的原型网络基线,过去的原型网络模型中,并不会充分利用关系文本进行训练,在生成类原型时仅仅考虑支持集数据,而本实施例的模型将在训练过程中加入关系文本特征,用于提升模型的性能。
参照图2,图2是图1中步骤S102的具体方法流程图,是对步骤S102的进一步说明,步骤S102包括但不限于步骤S201至步骤S202。
步骤S201,创建关于实体关系的类别的元任务;
步骤S202,随机选择N个实体关系的类别,并从每个类别中随机选取K个样本实例分别构建元任务的支持集,再从每个类别中随机选取Q个样本实例分别构建元任务的查询集。
在一些实施例中,在通过N-way K-shot方法对样本实例进行小样本抽取的过程中,需要将训练过程分解为若干个元任务,创建关于实体关系的类别的元任务,其中,每个元任务代表小样本采样的片段,之后,随机选择N个实体关系类别,并从每个类别中随机选取K个样本实例分别创建元任务的支持集,再从每个类别中随机选取Q个样本实例分别构建元任务的查询集,从而便于后续对支持集和查询集的预测,提高模型的分类性能和泛化能力。
需要说明的是,在每个元任务T中,模型利用随机采样的方式在样本实例中随机选择N个类别,并在每个类别中随机采用K+Q个样本实例。其中,N×K个样本组成了支持集S,而剩余N×Q个样本组成查询集Y。对于小样本关系抽取任务,N一般选取5或10,而K一般不大于5。在一个N-way K-shot子任务中,模型利用支持集S训练学习关系类别特征,然后预测查询样例y的类别标签。模型测试阶段采用相同的方法,在测试集中构建相同的子任务进行测试。
参照图3,图3是本申请实施例提供的预训练的方法流程图,该预训练方法包括但不限于以下步骤S301至步骤S304。
步骤S301,根据预设字向量表将输入的样本实例和关系描述文本进行转换,得到对应的字向量;
在一些实施例中,根据预设字向量表将输入的样本实例和关系描述文本进行转换,将样本实例和关系描述文本中的每个字转换为一维向量,得到对应的字向量,从而降低计算的复杂程度。
步骤S302,根据样本实例和关系描述文本生成文本向量和位置向量;
在一些实施例中,对样本实例和关系描述文本进行分词操作,得到多个单词序列,之后对每个单词序列在预设的字典中查找对应的单词向量,得到与样本实例和关系描述文本对应位置向量,其中,位置向量用于表征样本实例和关系描述文本在句子中的位置编码向量,用于区分不同位置上的相同单词,再将所有单词向量拼接起来形成样本实例和关系描述文本整个句子的向量表示,生成文本向量,从而能够精准地捕捉到单词在句子中的位置信息,更好地处理自然语言中存在的歧义和多义性问题。
步骤S303,按照样本实例和关系描述文本的对应关系,将字向量、文本向量和位置向量进行加和,并将加和结果作为输入向量;
在一些实施例中,按照样本实例和关系描述文本的对应关系,将字向量、文本向量和位置向量进行加和,并将加和结果作为输入向量,可以学习到样本实例和关系描述文本的上下文信息,并将这些信息编码为固定长度的向量表示。这些向量表示具有很强的泛化能力,可以在不同的自然语言处理任务中进行微调,从而大大提高了模型的性能。
需要说明的是,步骤S301至步骤S303的具体向量转换过程可以在BERT(Bidirectional Encoder Representation from Transformers)模型中进行转换,也可以在预设的向量转换模块中进行转换,本实施例不做具体限制。
步骤S304,将输入向量输入到BERT模型进行预训练。
在一些实施例中,为了让输出的特征向量适应当前任务特点,需要将输入向量输入到BERT模型进行预训练,以提高BERT模型的语言理解能力,实现对文本和实例的精准预测。
需要说明的是,位置向量对于关系抽取任务来说十分重要,同一对实体单词在不同的语句位置的场景下所蕴含的关系信息也不一致。位置信息PE计算公式如下所示:
其中,表示位置,/>代表向量维度。BERT在训练过程中采用的损失函数为负对数似然函数,具体的计算公式如下:
其中,为输入,/>为输出,/>为模型参数。
参照图4,图4是图3中步骤S304的具体方法流程图,是对步骤S304的进一步说明,步骤S304包括但不限于步骤S401。
需要说明的是,在进行预训练的过程中采用了Transform的编码器结构。
步骤S401,通过自注意力机制对输入向量中每个单词进行注意力计算,得到每个单词与上下文中其他单词之间的相关性,并输出输入向量中每个单词的向量表征。
在一些实施例中,通过自注意力机制对输入向量中每个单词进行注意力计算,以得到每个单词与上下文中其他单词之间的注意力权重,并输出输入向量中每个单词的向量表征,从而能够准确地表示单词之间的语义关联的重要性,避免了传统的循环神经网络中存在的梯度消失和爆炸问题。
需要说明的是,利用自注意力机制对输入向量中每个单词进行注意力计算,让模型获得每个单词与上下文中其他单词之间的注意力权重,来表示彼此之间语义关联的重要性。这种注意力权重的计算是通过将输入向量中每个单词向量进行线性变换得到的,然后通过softmax函数将这些向量相互关联。自注意力机制允许BERT捕捉序列中的长距离依赖关系,同时避免了传统的循环神经网络中存在的梯度消失和爆炸问题。注意力计算公式如下所示:
其中,,/>,/>均是输入字向量矩阵,/>为输入向量维度,/>为相似度计算方法,一般为矩阵乘积。自注意力机制会对序列中的每个词,计算其与句中其他词的相关性,并利用这些关系来调整每个词对于所需信息的重要性权重,而后对它们的向量表征求和。
值得注意的是,注意力机制(Attention Mechanism)模仿了人眼视觉聚焦的过程,人的眼睛在观察场景时视线会集中聚焦于重要信息,而忽略其他无用信息,并且本实施例设置了特征级与实例级的注意力模块结合自注意力机制,通过计算注意力权重,将特征向量的特征信息聚焦于关键语义信息上。
参照图5,图5是本申请另一实施例提供的一种关系抽取方法,该网络信息的关系抽取方法包括但不限于以下步骤S501至步骤S502。
步骤S501,通过预训练确定支持集的样本实例的局部特征向量和关系描述文本的局部特征向量;
步骤S502,将支持集的样本实例的局部特征向量和关系描述文本的局部特征向量输入到特征级注意力模块,得到局部特征向量表示。
需要说明的是,特征级注意力模块的注意力激活函数为softmax函数。
在一些实施例中,由于关系抽取任务的特殊性,关系抽取模型需要充分利用现有数据中的关键特征进行训练。因此,本实施例首先通过预训练确定支持集的样本实例的局部特征向量和关系描述文本的局部特征向量,之后再将支持集的样本实例的局部特征向量和关系描述文本的局部特征向量输入到特征级注意力模块,得到局部特征向量表示,其中,特征级注意力机制其作用是对样本实例的局部特征向量和关系描述的局部特征向量通过注意力的计算,使生成的原型更具代表性。
需要说明的是,对于输入的样本实例和关系描述文本,取其经过预训练获得的长度为L(最大长度)的向量和/>,分别计算其每一个局部特征向量的注意力权重。计算公式如下:
其中,为局部特征向量的注意力分数,/>为注意力分数经过softmax之后变为注意力权重。
在一些实施例中,根据获得的注意力权重,来计算支持集实例的最终特征向量表示,通过特征级注意力机制,可以使得用于计算类原型的支持集实例的特征向量更多的考虑与关系描述文本具有关联性影响的特征,根据不同的实例与关系描述之间的局部特征向量的相似度来为它们分配权重,并取加权和来形成最终的局部特征向量表示。局部特征与关系描述的特征向量越相近获得的权重就越高,表明在该实例的局部特征向量中用于表示该关系的重要语义信息越多,该特征在生成类原型时也占有更大的比重,对于某一关系的支持集实例的特征向量由每个局部特征的注意力权重计算得到,计算方式如下公式所示:
参照图6,图6是本申请另一实施例提供的一种关系抽取方法,该网络信息的关系抽取方法包括但不限于以下步骤S601。
步骤S601,将局部特征向量表示和支持集的样本实例的全局特征向量输入到实例级注意力模块,得到注意力权重调整后的局部特征向量表示。
需要说明的是,实例级注意力模块的注意力激活函数为tanh函数。
在一些实施例中,并非所有的支持集的样本实例在生成类原型时都应该占据同样的比重,一般的原型网络模型仅通过均值简单地计算类原型,这样无法突出数据中的有效特征。同时考虑网络信息数据集的特点,通过人工标注的数据很有可能会存在噪音的影响,而当数据噪音较大时会在生成类原型时会引起较大的偏差,对模型的训练结果产生巨大影响。因此,本实施例将局部特征向量表示和支持集的样本实例的全局特征向量输入到实例级注意力模块,通过注意力机制来获取支持集中与查询实例更加接近的句子,并在生成类原型时获得更高的权重,减少噪声对模型的影响,进一步提升模型的性能,实例级注意力权重的计算公式如下:
其中,为支持实例的全局特征。
需要说明的是,对于实例级注意力机制,选择tanh函数来代替softmax函数作为注意力的激活函数,tanh函数可以获得(-1,1)之间的激活值,让注意力的权重得到更好的发挥,为了减轻标注错误的支持集实例对模型的影响,tanh 函数可以通过给这些句子赋予负的权重来降低它们的重要性。
在一些实施例中,第一实例级原型点和第二实例级原型点通过以下公式计算得到:
其中,表示实例级原型点(第一实例级原型点表示为/>和第二实例级原型点表示为/>),/>表示维度为d的特征向量,实体关系/>对应的实体S表示为,/>表示实体关系/>对应的关系描述文本。
在一些实施例中,本实施例采用标准欧式距离来获得查询实例的关系预测概率。而考虑到前文多层注意力机制对局部特征的提取,在训练的过程中,本实施例还会计算局部特征级的类原型,对于局部特征的编码,选择将BERT编码器对句子编码的结果全部拼接起来,再通过注意力模块的计算获得最终支持集实例的所有局部特征向量表示和关系文本的局部特征向量表示/>,然后用同样的公式计算实例级的原型网络/>,通过拼接获得最终的混合原型网络/>。之后,通过分类结果和损失函数来更新参数和原型,最后,对于查询集的样本只需计算到各个原型中心的距离,即可做出分类结果的预测。原型网络模型的损失函数设计为如下公式所示:
参照图7,图7是图1中步骤S101的具体方法流程图,是对步骤S101的进一步说明,步骤S101包括但不限于步骤S701至步骤S702。
步骤S701,获取网络信息的原始数据;
步骤S702,对原始数据进行文本预处理后,通过预设的标注工具标注出实体、实体关系和对应的关系描述文本,和/或,通过预设的实体类型定义表和关系类型定义表标注出实体、实体关系和对应的关系描述文本;
需要说明的是,实体类型定义表存储有实体名词与实体类型的对应关系,关系类型定义表存储有关系名词与关系类型、关系描述文本的对应关系。
在一些实施例中,在获取网络信息的样本实例的过程中,首先获取网络信息的原始数据,之后对原始数据进行文本预处理操作,从而降低数据噪声,加快模型训练和预测速度,在经过文本预处理之后,通过预设的标注工具标注出实体和对应的关系描述文本或者通过预设的实体类型定义表和关系类型定义表标注出实体、实体关系和对应的关系描述文本,从而便于后续提高模型的性能。
可以理解的是,预设的标注工具可以为doccano工具、Label Studio工具、Annotate工具等等,通过标注工具标注的实体、实体关系以及关系描述文本的标注精度高,适用于训练小样本模型;通过实体类型定义表和关系类型定义表标注出来的实体数量多,这类数据用于后续提升模型的性能。
需要说明的是,对原始数据的文本预处理操作包括但不限于包括分词、词干提取、去除标点等等操作,从而减少数据中的噪声,并将文本转换为数值表示后可以更好地配合各种算法进行计算。
为了更加清楚地说明上述的网络信息的关系抽取方法,下面以具体示例进行说明。
示例一:
参考图8,图8是本申请一个示例提供的关系抽取模型的整体框架图。
针对网络信息标签语料匮乏,模型特征学习不充分的问题,本示例提出了一种新的小样本网络信息关系抽取模型(FRTI)。该关系抽取模型基于元学习的框架,关系抽取模型分为编码层和原型网络层,融合了BERT预训练语言模型和原型网络的技术,快速学习关系分类任务的度量空间,在特征提取的过程中,采用多层注意力机制,从特征级和实例级两个方面为原型网络模型计算注意力权重,通过计算查询实例和支持实例,以及关系描述与支持实例之间的注意力关联,使模型学习更加丰富的语义特征并凸显关键语义特征,在特征提取之后,通过计算混合原型网络,在传统原型网络的基础上引入两个维度的特征信息和关系描述语义提高模型的分类性能和泛化能力。
参考图8,FRTI模型分为两个功能模块,特征提取模块和标签预测模块,特征提取采用BERT预训练语言模型提取蕴含上下文语义信息的特征向量,通过多层注意力机制计算注意力关联权重,凸显特征向量中的关键语义,然后通过原型网络计算样本与关系原型的距离度量,获得样本的预测标签。
FRTI通过N-way K-shot方法对训练数据进行采样,将训练过程分解为若干个元任务 T,每个元任务代表小样本采样的片段。具体地,N-way K-shot表示每一个片段随机采样N个类别,每个类别采样K个标注样本。
在每个元任务T中,模型利用随机采样的方式在训练数据集中随机选择N个类别,并在每个类别中随机采用K + Q个样本实例。其中,N×K个样本组成了支持集S,而剩余N×Q个样本组成查询集。对于小样本关系抽取任务,N一般选取5或10,而K一般不大于5。在一个N-way K-shot子任务中,模型利用支持集S训练学习关系类别特征,然后预测查询样例y的类别标签。模型测试阶段采用相同的方法,在测试集中构建相同的子任务进行测试。
针对本发明的关系抽取任务而言具体的实施步骤为:
步骤1:首先构建小样本学习N-way K-shot的元学习任务,在训练阶段,首先需要构建一个关系分类的元任务,随机选择训练集中的N个类别,并从每个类别中随机选取K个样本实例构建元任务的支持集;然后从抽取的N个类别中剩余的数据中随机采样Q个样本实例构建模型的查询集,用于检验元任务中模型的分类能力。在模型测试阶段,以同样的方式从不包含在训练集中的新的关系类别中构建相同的元任务,以检测模型在新类别中的泛化能力,该任务构建方式要求模型从N×K个数据中学习这N个类别样本的关系辨别。
步骤2:将一句英文句子输入BERT中,BERT通过查询字向量表将文本中的每个字转换为一维向量,另外,融合文本向量和位置向量,将三者的加和作为模型的输入。为了让输出的特征向量适应当前任务特点,需要对输入进行编码训练。在编码训练过程中采用了Transform的编码器结构,利用自注意力机制对输入句子中每个单词进行注意力计算,让模型获得每个单词与上下文中其他单词之间的注意力权重,来表示彼此之间语义关联的重要性。这种注意力权重的计算是通过将输入序列中每个单词向量进行线性变换得到的,然后通过softmax函数将这些向量相互关联。自注意力机制允许BERT捕捉序列中的长距离依赖关系,同时避免了传统的循环神经网络中存在的梯度消失和爆炸问题。
需要说明的是,BERT模型的具体计算过程如上步骤S301至步骤S304以及步骤S401所示,本示例在此不再赘述。
参考图9,图9是本申请一个示例提供的多层注意力模块的示意图。
步骤3:注意力机制(Attention Mechanism)模仿了人眼视觉聚焦的过程,人的眼睛在观察场景时视线会集中聚焦于重要信息,而忽略其他无用信息。本实施例设计了特征级与实例级的注意力模块结合自注意力机制,通过计算注意力权重,将特征向量的特征信息聚焦于关键语义信息上。多层注意力模块的设计如图9所示。图中Fatt为特征级注意力、Iatt为实例级注意力,黑色和白色长方形分别表示局部特征向量和全局特征向量,是向量的临时表示,参与计算特征级注意力与实例级注意力。
步骤3.1:计算特征级注意力attention(Fatt),由于信息关系抽取任务的特殊性,由于数据量不足,关系抽取模型需要充分利用现有数据中的关键特征进行训练。特征级注意力机制其作用是对样本实例的局部特征向量和关系描述的局部特征向量通过注意力的计算,使生成的原型更具代表性,对于输入的实例文本和关系文本,取其经过编码模块获得的长度为 L(最大长度)的向量,分别计算每一个局部特征的注意力权重;
步骤3.2:根据获得的注意力权重,来计算支持集实例的最终特征向量表示,通过特征级注意力机制,可以使得用于计算类原型的支持集实例的特征向量更多的考虑与关系描述文本具有关联性影响的特征,根据不同的实例与关系描述之间的局部特征向量的相似度来为它们分配权重,并取加权和来形成最终的局部特征向量表示。局部特征与关系描述的特征向量越相近获得的权重就越高,表明在该实例的局部特征向量中用于表示该关系的重要语义信息越多,该特征在生成类原型时也占有更大的比重,对于某一关系的支持集实例的特征向量由每个局部特征的注意力权重计算得到;
需要说明的是,具体计算特征级注意力的过程如上步骤S501至步骤S502所示,本示例在此不再赘述。
步骤3.3:计算实例级注意力attention(Iatt),有研究表明并非所有的支持集实例在生成类原型时都应该占据同样的比重,一般的原型网络模型仅通过均值简单地计算类原型,这样无法突出数据中的有效特征。同时考虑网络信息领域数据集的特点,通过人工标注的数据很有可能会存在噪音的影响,而当数据噪音较大时会在生成类原型时会引起较大的偏差,对模型的训练结果产生巨大影响。本实施例设计了实例级注意力模块,通过注意力机制来获取支持集中与查询实例更加接近的句子,并在生成类原型时获得更高的权重,减少噪声对模型的影响,进一步提升模型的性能;
需要说明的是,具体计算实例级注意力的过程如上步骤S601所示,本示例在此不再赘述。
步骤4:本实施例采用混合原型网络来代替传统的原型网络基线,过去的原型网络模型中,并不会充分利用关系文本进行训练,在生成类原型时仅仅考虑支持集数据,而本文的模型将在训练过程中加入关系文本特征,用于提升模型的性能。根据以往的研究表明,对于关系文本来说,其有效特征通过BERT编码后会集中于句子开头对应的输出处[CLS]处,在关系分类任务中,句子实例集中每个句子样例S由向量组成,实体关系/>对应的实体S表示为/>,其中,/>表示维度为d的特征向量;
步骤4.1:采用标准欧式距离来获得查询实例的关系预测概率。而考虑到前文多层注意力机制对局部特征的提取,在训练的过程中,本实施例还会计算局部特征级的类原型,对于局部特征的编码,选择将BERT编码器对句子编码的结果全部拼接起来,再通过注意力模块的计算获得最终支持集实例的所有局部特征向量表示和关系文本的局部特征向量表示/>,然后用同样的公式计算实例级的原型网络/>,通过拼接获得最终的混合原型网络。之后,通过分类结果和损失函数来更新参数和原型,最后,对于查询集的样本只需计算到各个原型中心的距离,即可做出分类结果的预测。
在一些实施例中,网络信息领域的关系抽取任务面临数据量匮乏、标注成本高等问题。在实际应用场景中,使用少量网络信息训练数据训练的模型无法达到预期标准。针对此问题,本示例提出了FRTI模型,该模型基于元学习架构进行N-way-K-shot任务训练,利用预训练语言模型和多层注意力机制在特征提取模块获得更加丰富的语义信息,通过混合原型网络对数据进行标签预测,在小样本场景下提升关系抽取能力。
示例二:
示例二为构建网络信息的样本实例的具体流程图,具体包括如下步骤:
由于网络信息领域命名实体识别数据集匮乏,难以获取较为合适的训练数据。为了更好的模拟实际应用场景,本实施例构建了网络信息的样本实例。
步骤5:采用开源的网络信息规范数据信息对APT攻击和涉及恶意软件和漏洞的数据源的关系抽取。相比于其他的标准,本示例定义的实体关系类型相对丰富,能涵盖网络;
步骤6:数据集的构建由于网络信息领域数据小样本的特性,本示例对网络上的网络信息数据的处理分为两类,一类是经过文本预处理之后,通过标注工具doccano标注出实体和关系标签的少量训练数据,这类数据要求标注精度高,用于训练小样本模型,第二类为进行预处理后,通过人工标注和命名实体识别的方式识别出实体的大量非精确数据,这类数据用于后续提升模型的性能。
其中,本文的网络信息实体类型定义如下表1和表2所示:
表1 网络信息实体类型定义表(一)
表2 网络信息关系类型定义表(二)
本申请实施例的还提供了一种网络信息的关系抽取装置,包括至少一个处理器和用于与至少一个处理器通信连接的存储器;存储器存储有能够被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行前述的关系抽取方法。
参照图10,以网络信息的关系抽取装置1000中的控制处理器1001和存储器1002可以通过总线连接为例。存储器1002作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器1002可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器1002可选包括相对于控制处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至网络信息的关系抽取装置1000。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本领域技术人员可以理解,图10中示出的装置结构并不构成对网络信息的关系抽取装置1000的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本申请实施例的还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,例如,被图10中的一个控制处理器1001执行,可使得上述一个或多个控制处理器执行上述方法实施例中的关系抽取方法。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
Claims (9)
1.一种网络信息的关系抽取方法,其特征在于,包括:
获取网络信息的样本实例,所述网络信息的每个所述样本实例被标注出实体和所述实体对应的实体关系;
按照所述实体关系的类别对所述样本实例进行小样本抽取,得到N个支持集和N个查询集,所述支持集中包括K个所述样本实例,所述查询集包括Q个所述样本实例,所述N、K和Q均为正整数;
通过所述支持集和所述查询集对关系抽取模型进行训练;
利用经过训练的关系抽取模型对网络信息的数据进行关系抽取;
其中,所述关系抽取模型包括特征抽取模块和标签预测模块;
所述特征抽取模块用于对输入的所述样本实例和关系描述文本进行预训练,通过特征级注意力机制对所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量计算注意力权重,然后通过实例级注意力机制调整所述注意力权重;对于输入的所述样本实例和所述关系描述文本,取其经过预训练获得的最大长度L的向量和/>,分别计算其每一个所述局部特征向量的注意力权重,计算公式如下:
其中,为局部特征向量的注意力分数,/>为注意力分数经过softmax之后变为注意力权重;
实例级注意力权重的计算公式如下:
其中,为支持实例的全局特征;
所述标签预测模块用于计算通过特征级注意力机制输出的局部特征向量和所述关系描述文本的全局特征向量的第一实例级原型点,以及计算通过实例级注意力机制调整后输出的特征向量的第二实例级原型点,还用于拼接所述第一实例级原型点和所述第二实例级原型点得到混合原型网络,所述混合原型网络用于根据所述查询集的所述样本实例计算到各个原型点的距离,以得到预测的关系分类结果;其中所述第一实例级原型点和所述第二实例级原型点通过以下公式计算得到:
其中,表示实例级原型点,/>表示维度为d的特征向量,/>表示实体关系对应的关系描述文本,i为正整数,表示第i个所述样本实例。
2.根据权利要求1所述的关系抽取方法,其特征在于,所述按照所述实体关系的类别对所述样本实例进行小样本抽取,得到N个支持集和N个查询集,包括:
创建关于所述实体关系的类别的元任务;
随机选择N个所述实体关系的类别,并从每个类别中随机选取K个所述样本实例分别构建所述元任务的支持集,再从每个类别中随机选取Q个所述样本实例分别构建所述元任务的查询集。
3.根据权利要求1所述的关系抽取方法,其特征在于,所述预训练包括:
根据预设字向量表将输入的所述样本实例和关系描述文本进行转换,得到对应的字向量;
根据所述样本实例和关系描述文本生成文本向量和位置向量;
按照所述样本实例和关系描述文本的对应关系,将所述字向量、所述文本向量和所述位置向量进行加和,并将加和结果作为输入向量;
将所述输入向量输入到BERT模型进行预训练。
4.根据权利要求3所述的关系抽取方法,其特征在于,所述将所述输入向量输入到BERT模型进行预训练,包括:
通过自注意力机制对所述输入向量中每个单词进行注意力计算,得到每个单词与上下文中其他单词之间的相关性,并输出所述输入向量中每个单词的向量表征。
5.根据权利要求1所述的关系抽取方法,其特征在于,所述通过特征级注意力机制对所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量计算注意力权重,包括:
通过预训练确定所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量;
将所述支持集的样本实例的局部特征向量和所述关系描述文本的局部特征向量输入到特征级注意力模块,得到局部特征向量表示;
其中,所述特征级注意力模块的注意力激活函数为softmax函数。
6.根据权利要求5所述的关系抽取方法,其特征在于,所述通过实例级注意力机制调整所述注意力权重,包括:
将所述局部特征向量表示和所述支持集的样本实例的全局特征向量输入到实例级注意力模块,得到注意力权重调整后的局部特征向量表示;
其中,所述实例级注意力模块的注意力激活函数为tanh函数。
7.根据权利要求1所述的关系抽取方法,其特征在于,所述获取网络信息的样本实例,包括:
获取网络信息的原始数据;
对所述原始数据进行文本预处理后,通过预设的标注工具标注出实体、实体关系和对应的关系描述文本,和/或,通过预设的实体类型定义表和关系类型定义表标注出实体、实体关系和对应的关系描述文本;
其中,所述实体类型定义表存储有实体名词与实体类型的对应关系,所述关系类型定义表存储有关系名词与关系类型、关系描述文本的对应关系。
8.一种网络信息的关系抽取装置,其特征在于,包括至少一个处理器和用于与所述至少一个处理器通信连接的存储器;所述存储器存储有能够被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的关系抽取方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至7中任意一项所述的关系抽取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310788192.6A CN116561322B (zh) | 2023-06-30 | 2023-06-30 | 网络信息的关系抽取方法、关系抽取装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310788192.6A CN116561322B (zh) | 2023-06-30 | 2023-06-30 | 网络信息的关系抽取方法、关系抽取装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116561322A CN116561322A (zh) | 2023-08-08 |
CN116561322B true CN116561322B (zh) | 2023-09-12 |
Family
ID=87496740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310788192.6A Active CN116561322B (zh) | 2023-06-30 | 2023-06-30 | 网络信息的关系抽取方法、关系抽取装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116561322B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117669593B (zh) * | 2024-01-31 | 2024-04-26 | 山东省计算中心(国家超级计算济南中心) | 基于等价语义的零样本关系抽取方法、系统、设备及介质 |
CN118093885B (zh) * | 2024-04-29 | 2024-06-25 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及设备、介质、产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926693A (zh) * | 2022-06-01 | 2022-08-19 | 北京航空航天大学杭州创新研究院 | 基于加权距离的sar图像小样本识别方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11593560B2 (en) * | 2020-10-21 | 2023-02-28 | Beijing Wodong Tianjun Information Technology Co., Ltd. | System and method for relation extraction with adaptive thresholding and localized context pooling |
-
2023
- 2023-06-30 CN CN202310788192.6A patent/CN116561322B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926693A (zh) * | 2022-06-01 | 2022-08-19 | 北京航空航天大学杭州创新研究院 | 基于加权距离的sar图像小样本识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116561322A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116561322B (zh) | 网络信息的关系抽取方法、关系抽取装置及介质 | |
CN111597803B (zh) | 一种要素提取方法、装置、电子设备及存储介质 | |
Zhang et al. | Video-aided unsupervised grammar induction | |
US20230075290A1 (en) | Method for linking a cve with at least one synthetic cpe | |
CN112528653B (zh) | 短文本实体识别方法和系统 | |
CN110852066B (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
CN117272142A (zh) | 一种日志异常检测方法、系统及电子设备 | |
Zeng et al. | Correcting the Bias: Mitigating Multimodal Inconsistency Contrastive Learning for Multimodal Fake News Detection | |
Ou et al. | Refining BERT embeddings for document hashing via mutual information maximization | |
CN117648933A (zh) | 基于深度学习和知识库的自然语言歧义消解方法和系统 | |
CN117033626A (zh) | 一种文本审核方法、装置、设备及存储介质 | |
Constantin et al. | Hateful meme detection with multimodal deep neural networks | |
Li et al. | ViT2CMH: Vision Transformer Cross-Modal Hashing for Fine-Grained Vision-Text Retrieval. | |
Deroy et al. | Question Generation: Past, Present & Future | |
Wang et al. | Enhancing Implicit Sentiment Learning via the Incorporation of Part-of-Speech for Aspect-Based Sentiment Analysis | |
Chen et al. | Action-aware Linguistic Skeleton Optimization Network for Non-autoregressive Video Captioning | |
CN117828513B (zh) | 一种论文主题无关引用检查方法及装置 | |
US12086698B2 (en) | Systems and methods for field extraction from unlabeled data | |
Manh et al. | Detecting Duplicate Multiple Choice Questions in the Large Question Bank | |
Yi et al. | Towards an efficient and robust adversarial attack against neural text classifier | |
Jain et al. | Text analytics framework using Apache spark and combination of lexical and machine learning techniques | |
Margiotta | Modeling and classifying textual data through Transformer-based architecture: a comparative approach in Natural Language Processing | |
Kumar et al. | IITK at SemEval-2021 task 10: Source-free unsupervised domain adaptation using class prototypes | |
Atiwetsakun et al. | Thai Tokenization with Attention Mechanism | |
Wang et al. | Check for updates Enhancing Implicit Sentiment Learning via the Incorporation of Part-of-Speech for Aspect-Based Sentiment Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |