CN112069825A - 面向警情笔录数据的实体关系联合抽取方法 - Google Patents
面向警情笔录数据的实体关系联合抽取方法 Download PDFInfo
- Publication number
- CN112069825A CN112069825A CN202011260085.9A CN202011260085A CN112069825A CN 112069825 A CN112069825 A CN 112069825A CN 202011260085 A CN202011260085 A CN 202011260085A CN 112069825 A CN112069825 A CN 112069825A
- Authority
- CN
- China
- Prior art keywords
- entity
- label
- relation
- sentence
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000014509 gene expression Effects 0.000 claims abstract description 6
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 22
- 238000012512 characterization method Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000005429 filling process Methods 0.000 claims description 2
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 claims 1
- 101100478633 Escherichia coli O157:H7 stcE gene Proteins 0.000 claims 1
- 101150115529 tagA gene Proteins 0.000 claims 1
- 230000002452 interceptive effect Effects 0.000 abstract description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010380 label transfer Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Tourism & Hospitality (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Technology Law (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
Abstract
面向警情笔录数据的实体关系联合抽取方法,收集警情笔录数据作为训练数据,获得各句子中存在的实体标签以及实体标签间的关系标签;对每个句子进行上下文编码;对每个句子的上下文语义表征进行命名实体识别;根据训练数据的先验共现信息构建标签依赖图,获取一组相互依赖的关系标签嵌入表示;对于待预测的警情笔录数据的每个句子,综合其上下文语义表征和命名实体识别结果以及关系标签嵌入表示,预测每个句子中所有的实体关系。该方法不仅能解决目前警情笔录关系抽取中误差传导、不能充分利用各子任务之间的交互信息问题,而且还能利用警情笔录数据中关系标签的重要依赖知识提高警情笔录关系抽取的性能。
Description
技术领域
本发明涉及自然语言处理和深度学习领域,尤其涉及一种面向警情笔录数据的实体关系联合抽取方法。
背景技术
面向警情笔录数据的实体关系抽取 (Relation Extraction) 是警情笔录信息抽取技术的重要环节,是警情笔录信息抽取领域重要的基础任务和难点问题之一。其任务是从非结构化文本中识别出一对实体以及这对实体具有的语义关系,并构成关系三元组。从理论价值层面看,实体关系抽取涉及到机器学习、语言学、数据挖掘等多个学科的理论和方法。从应用层面看,实体关系抽取可用于大规模知识库的自动构建。实体关系抽取还能为信息检索和自动问答系统的构建提供数据支持。近年来,研究人员已经在关系抽取方面做出了诸多工作,尤其是基于神经网络的有监督的关系抽取方法。
目前进行面向警情笔录数据的实体关系抽取的方法主要是基于流水线的抽取方法,即把实体和关系的抽取分为两个子任务:先采用命名实体识别模型抽取出所有实体,再采用关系分类器得到实体对之间的关系。然而,流水线方法存在着以下几个缺点:
1、误差累计,实体识别模块的错误会影响到接下来的关系分类性能;
2、忽视了两个子任务之间存在的关系,丢失相互信息,影响抽取效果;
3、产生冗余信息,由于对识别出来的实体进行两两配对,然后再进行关系分类,那些没有关系的实体对就会带来多余信息,提升错误率。
相比于流水线方法,联合学习方法能够利用警情笔录数据中实体和关系间紧密的交互信息,同时抽取实体并分类实体对的关系,很好地解决了流水线方法所存在的问题。然而,目前存在的联合抽取方法虽然消除了流水线方法中两个子任务相互独立的问题,但现有的方法大都孤立的预测每一个关系而未考虑关系标签相互之间的丰富语义关联。
发明内容
针对目前警情笔录领域下实体关系抽取方法存在误差传导、不能充分利用各子任务之间的交互信息和未考虑关系标签之间语义关联的问题,本发明提出了一种面向警情笔录数据的实体关系联合抽取方法。该方法不仅能解决目前警情笔录关系抽取中误差传导、不能充分利用各子任务之间的交互信息问题,而且还能利用警情笔录数据中关系标签的重要依赖知识。实际应用中本发明显著提高了警情笔录关系抽取的性能。
为实现上述技术目的,本发明采用的具体技术方案如下:
面向警情笔录数据的实体关系联合抽取方法,包括:
S1. 收集大量警情笔录数据作为训练数据,预定义m个实体标签以及q个关系标签,针对收集的警情笔录数据以句子为单位,对各句子中存在的实体标签和关系标签进行人工标注,以及获得训练数据中关系标签的先验共现信息。
S2. 对警情笔录数据中的每个句子进行上下文编码得到每个句子的上下文语义表征。
S3. 对警情笔录数据中的每个句子的上下文语义表征进行命名实体识别。
S4. 根据训练数据的先验共现信息构建标签依赖图的邻接矩阵,使用多层图卷积网络进行关系标签依赖编码后,得到一组相互依赖的关系标签嵌入表示。
S5. 对于待预测的警情笔录数据的每个句子,综合其上下文语义表征和命名实体识别结果以及S4中得到的关系标签嵌入表示,预测每个句子中所有的实体关系。
本发明的S2中将警情笔录数据中的任意句子用X={x 1,x 2,…x n }表示,其中x 1,x 2,…x n 表示句子中的字符,n是句子的长度;将每个句子对应的分别输入到分词器得到分词后的数据W={w 1,w 2,…w k },其中,w 1,w 2,…w k 表示句子中的各词单元,其中k是预处理后的数据W的长度,k<=n;将分词后的数据W={w 1,w 2,…w k }输入至预训练语言模型BERT,通过预训练语言模型BERT将划分出的每个词单元映射为对应的上下文语义表征,其中分别代表w 1,w 2,…w k 对应的上下文语义表征。
本发明的S1中预定义的m个实体标签为;实体标签序列,S3中对于警情笔录数据中的每个句子的上下文语义表征Z={z 1,z 2,…z k },给定一组实体标签序列,计算Z的实体标签序列为Y的概率值,将最大概率值对应的实体标签序列作Z的预测实体标签序列;将预测实体标签序列向量化映射为对应的实体标签嵌入序列,其中分别为对应的预测实体标签的标签嵌入。
本发明的S4中针对收集的警情笔录数据,使用一个邻接矩阵 来表示有 q个关系标签的关系标签依赖图。具体地,关系标签依赖图中一个图节点即表示一个关系标签节点,关系标签之间的关联则存储在关系标签依赖图的边上,如果两个关系标签同时出现在同一个句子中,那么将认为它们对应的标签的同时出现,即两者间存在边;使用两个关系标签之间的共现次数作为两个关系标签在关系标签依赖图的邻接矩阵中的连接权值。
对于预定义的q种关系标签,将每个关系标签映射为一个待更新的 p 维向量,得到一组关系标签节点嵌入,其中p是一个超参数,由交叉验证得到。将作为多层图卷积网络的初始输入;通过构建好的关系标签依赖图的邻接矩阵A,图卷积网络的每一层可以写成非线性函数,使用多层图卷积网络来学习多个关系标签节点嵌入之间的相关性,完成关系标签依赖编码后,得到一组相互依赖的关系标签嵌入表示}。
本发明的S5中对于待预测的警情笔录数据的每个句子,获取其语义向量序列和实体标签嵌入序列并进行拼接,得到目标向量集合,综合目标向量集合中的任意两个目标向量,与S4中得到的关系标签嵌入表示中每一种可能的关系标签进行关系预测,得到对应的预测实体关系。
与现有技术相比,本发明具有以下优点:
1、采用预训练语言模型BERT,BERT能对不同层次信息之间的复杂交互进行建模,学习深层语境化的词汇表征。
2、实体关系联合抽取,联合学习能够利用警情笔录数据中实体和关系间紧密的交互信息,并解决流水线方法的弊端。
3、与现有方法相比,不再孤立的预测每一个关系并利用图卷积网络学习关系标签相互之间的丰富语义关联信息。
附图说明
图1 为本发明的流程图。
图2 为本发明的系统框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面将以附图及详细叙述清楚说明本发明所揭示内容的精神,任何所属技术领域技术人员在了解本发明内容的实施例后,当可由本发明内容所教示的技术,加以改变及修饰,其并不脱离本发明内容的精神与范围。本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
参照图1和图2,本实施例提供一种面向警情笔录数据的实体关系联合抽取方法,包括:
S1. 收集大量警情笔录数据作为训练数据。每条警情笔录数据都由专业人员进行实体标签和关系标签的标注。具体地,预定义m个实体标签以及q个实体标签间的关系标签,针对收集的警情笔录数据以句子为单位,对各句子中存在的实体标签和关系标签进行人工标注,获得训练数据中关系标签的先验共现信息即各个句子中不同关系标签共同出现的次数。
与某市公安系统合作,收集了真实案件受理过程中产生的警情文本作为训练数据。由专家组紧密贴合业务,设计出科学合理的标签体系。在本方案具体实施中,根据办案需求和警情数据特点,共设计和预定义了m种实体标签,包括人物,机构,地点等;并预定义q种实体标签间的关系作为关系标签,如人物之间的关系(同伙,亲戚等),人物地点之间的关系(居住于,作案于等)。专业人员以句子为单位按照上述标签体系进行了实体与关系的标注。假设一句话中关系事实的出现次数为t,则标注t个五元组。其中五元组包含(头实体,尾实体,头实体标签, 尾实体标签,关系标签)5个重要信息。比如句子文本为“市公安局干警张三”,则标注(市公安局,张三,机构,人物,所在机构)五元组。
S2. 对警情笔录数据中的每个句子进行上下文编码得到每个句子的上下文语义表征。
将警情笔录数据中的每个句子分别用X={x 1,x 2,…x n }表示,其中x 1,x 2,…x n 表示句子中的字符,n是句子的长度。
将每个句子对应的预处理后的数据W={w 1,w 2,…w k }输入至预训练语言模型BERT,通过预训练语言模型BERT将划分出的每个词单元映射为对应的上下文语义表征,其中,代表的上下文语义表征,d为语义表征隐藏维度。
S3. 对警情笔录数据中的每个句子的上下文语义表征进行命名实体识别,得到对应的预测实体标签序列。
将命名实体识别任务描述为一个序列标注问题,使用BIO(开始、内部、外部)编码方案对句子进行序列标注。即为句子中的每个标记分配一个BIO中的某一种标签。由于实体由句子中的多个连续标记组成,这种做法可以识别实体的起始位置和结束位置及其类型(例如机构)。具体来说,就是将B-type(开始)分配给实体的第一个标记,将I-type(内部)分配给实体内的每个其他标记,如果标记不是实体的一部分,则分配O标签(外部)。比如输入文本为“市公安局干警张三”,目标是预测“B-机构 I-机构I-机构 I-机构 O O B-人物 I-人物”的实体标签序列。
本实施例中将警情笔录数据中的每个句子的上下文语义表征通过线性CRF(条件随机场)计算进行命名实体识别,得到对应的预测实体标签序列。
由于BIO标注编码方案存在着若干限制,如“B-机构”后面不能跟“I-人物”,“O”后面不能跟“I-type”等。本发明根据实体标签得分来计算线性CRF得分,通过学习得到的标签转移概率考虑实体边界。给定一组实体标签序列,计算上下文语义表征Z的实体标签序列为Y的线性CRF得分,公式为:
S4. 根据训练数据的先验共现信息构建标签依赖图的邻接矩阵,使用多层图卷积网络进行关系标签依赖图编码后,得到一组相互依赖的关系标签嵌入表示。
针对收集的警情笔录数据,使用一个邻接矩阵 来表示有 q个关系标签的关系标签依赖图。为了有效地捕捉关系标签间的相关性,通过计算训练数据中关系标签的共现情况,构造了依赖于训练数据中的先验共现信息的相关矩阵作为关系标签依赖图的邻接矩阵A。具体来说,关系标签依赖图中一个图节点即表示一个关系标签节点。如果两个关系标签同时出现在同一个句子中,那么将认为它们对应的标签的同时出现,即两者间存在边。如果关系标签与 j 关系标签同时出现在同一个句子中的频率比 c 关系标签高,则 关系标签和 j 关系标签之间应具有更强的相关性。因此,使用两个关系标签之间的共现次数作为邻接矩阵中的连接权值。例如,如果 关系与 j 关系同时出现 n 次,则。
构建了关系标签依赖图的邻接矩阵后,使用图卷积网络来建立关系标签依赖的模型。对于预定义的q种关系标签,首先将每个关系标签映射为一个待更新的 p 维向量,得到一组关系标签节点嵌入作为多层图卷积网络的初始输入。通过构造好的关系标签依赖图的邻接矩阵A,图卷积网络的每一层可以写成非线性函数。利用标准卷积运算,标签依赖的编码过程为:
本实施例使用一个三层图卷积网络来学习多个关系标签节点嵌入之间的相关性:
S5. 对于待预测的警情笔录数据的每个句子,综合其上下文语义表征和命名实体识别结果以及S4中得到的关系标签嵌入表示,预测每个句子中所有的实体关系。
对于待预测的警情笔录数据的每个句子,获取其语义向量序列和实体标签嵌入序列并进行拼接,得到目标向量集合,其中。综合目标向量集合中的任意两个目标向量与S4中得到的关系标签嵌入表示中每一种可能的关系标签进行关系得分计算,得到对应的预测实体关系。对待预测的警情笔录数据的每个句子的k个词单元两两配对并与关系标签嵌入表示中的q标签组合,共需计算k*k*q次,将其看成是一个三维表填充过程。具体来说,其中的每一次得分计算过程如下:
其中,表示激活函数,、权重矩阵,是偏置向量,是预训练语言模型BERT的输出词的语义表征和标签嵌入h i 的拼接,是预训练语言模型BERT的输出词的语义表征和标签嵌入的拼接;为S4中得到的关系标签嵌入表示的第r个分量,r=1,2,…,q, 。
通过本发明不仅能解决目前警情笔录事件抽取中误差传导、不能充分利用各子任务之间的交互信息的问题,而且还能利用警情笔录数据中关系标签的重要依赖知识。总体来说,本发明通过提高了警情笔录实体关系抽取的值,实现了对警情笔录数据实体关系的高效抽取,给公安警务部门预防犯罪带来了方便和数据支撑。
综上所述,虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明,任何本领域普通技术人员,在不脱离本发明的精神和范围内,当可作各种更动与润饰,因此本发明的保护范围当视权利要求书界定的范围为准。
Claims (10)
1.面向警情笔录数据的实体关系联合抽取方法,其特征在于,包括:
S1. 收集大量警情笔录数据作为训练数据,预定义m个实体标签以及q个关系标签,针对收集的警情笔录数据以句子为单位,对各句子中存在的实体标签和关系标签进行人工标注,并统计训练数据中关系标签的先验共现信息;
S2. 对警情笔录数据中的每个句子进行上下文编码得到每个句子的上下文语义表征;
S3. 对警情笔录数据中的每个句子的上下文语义表征进行命名实体识别;
S4. 根据训练数据的先验共现信息构建标签依赖图的邻接矩阵,使用多层图卷积网络进行关系标签依赖编码后,得到一组相互依赖的关系标签嵌入表示;
S5. 对于待预测的警情笔录数据的每个句子,综合其上下文语义表征和命名实体识别结果以及S4中得到的关系标签嵌入表示,预测每个句子中所有的实体关系。
2.根据权利要求1所述的面向警情笔录数据的实体关系联合抽取方法,其特征在于:S2中将警情笔录数据中的任意句子用X={x 1,x 2,…x n }表示,其中x 1,x 2,…x n 表示句子中的字符,n是句子的长度;将每个句子对应的分别输入到WordPiece分词器得到分词后的数据W={w 1,w 2,…w k },其中,w 1,w 2,…w k 表示句子中的各词单元,其中k是预处理后的数据W的长度,k<=n;将分词后的数据W={w 1,w 2,…w k }输入至预训练语言模型BERT,通过预训练语言模型BERT将划分出的每个词单元映射为对应的上下文语义表征Z={z 1,z 2,…z k },其中z 1,z 2,…z k 分别代表w 1,w 2,…w k 对应的上下文语义表征。
6.根据权利要求5所述的面向警情笔录数据的实体关系联合抽取方法,其特征在于:S4中构建关系标签依赖图的邻接矩阵A方法是:关系标签依赖图中一个图节点即表示一个关系标签节点,关系标签之间的关联则存储在关系标签依赖图的边上,如果两个关系标签同时出现在同一个句子中,那么将认为它们对应的标签的同时出现,即两者间存在边;使用两个关系标签之间的共现次数作为两个关系标签在关系标签依赖图的邻接矩阵中的连接权值。
8.根据权利要求7所述的面向警情笔录数据的实体关系联合抽取方法,其特征在于:S5中对于待预测的警情笔录数据的每个句子,获取其语义向量序列和实体标签嵌入序列并进行拼接,得到目标向量集合;综合目标向量集合中的任意两个目标向量与S4中得到的关系标签嵌入表示中每一种可能的关系标签进行关系得分计算,得到对应的预测实体关系。
9.根据权利要求8所述的面向警情笔录数据的实体关系联合抽取方法,其特征在于:S5中,关系得分计算的过程中,对待预测的警情笔录数据的每个句子的k个词单元两两配对并与关系标签嵌入表示中的q种关系标签组合,共需计算k*k*q次,将其看成是一个三维表填充过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011260085.9A CN112069825B (zh) | 2020-11-12 | 2020-11-12 | 面向警情笔录数据的实体关系联合抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011260085.9A CN112069825B (zh) | 2020-11-12 | 2020-11-12 | 面向警情笔录数据的实体关系联合抽取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112069825A true CN112069825A (zh) | 2020-12-11 |
CN112069825B CN112069825B (zh) | 2021-01-15 |
Family
ID=73655024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011260085.9A Active CN112069825B (zh) | 2020-11-12 | 2020-11-12 | 面向警情笔录数据的实体关系联合抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112069825B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112765980A (zh) * | 2021-02-01 | 2021-05-07 | 广州市刑事科学技术研究所 | 一种面向警情笔录的事件论元角色抽取方法和装置 |
CN113342974A (zh) * | 2021-06-10 | 2021-09-03 | 国网电子商务有限公司 | 一种网络安全实体重叠关系的识别方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543183A (zh) * | 2018-11-16 | 2019-03-29 | 西安交通大学 | 基于深度神经网络和标注策略的多标签实体-关系联合提取方法 |
CN110377903A (zh) * | 2019-06-24 | 2019-10-25 | 浙江大学 | 一种句子级实体和关系联合抽取方法 |
US20200065374A1 (en) * | 2018-08-23 | 2020-02-27 | Shenzhen Keya Medical Technology Corporation | Method and system for joint named entity recognition and relation extraction using convolutional neural network |
CN111160008A (zh) * | 2019-12-18 | 2020-05-15 | 华南理工大学 | 一种实体关系联合抽取方法及系统 |
CN111241294A (zh) * | 2019-12-31 | 2020-06-05 | 中国地质大学(武汉) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 |
-
2020
- 2020-11-12 CN CN202011260085.9A patent/CN112069825B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200065374A1 (en) * | 2018-08-23 | 2020-02-27 | Shenzhen Keya Medical Technology Corporation | Method and system for joint named entity recognition and relation extraction using convolutional neural network |
CN109543183A (zh) * | 2018-11-16 | 2019-03-29 | 西安交通大学 | 基于深度神经网络和标注策略的多标签实体-关系联合提取方法 |
CN110377903A (zh) * | 2019-06-24 | 2019-10-25 | 浙江大学 | 一种句子级实体和关系联合抽取方法 |
CN111160008A (zh) * | 2019-12-18 | 2020-05-15 | 华南理工大学 | 一种实体关系联合抽取方法及系统 |
CN111241294A (zh) * | 2019-12-31 | 2020-06-05 | 中国地质大学(武汉) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 |
Non-Patent Citations (3)
Title |
---|
TSU-JUI FU等: "GraphRel:Modeling Text as Relational Graphs for Joint Entity and Relation Extraction", 《PROCEDDINGS OF THE 57TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISICS》 * |
丁琛: "基于神经网络的实体识别和关系抽取的联合模型研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
周星瀚: "面向新闻文本的实体关系抽取研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112765980A (zh) * | 2021-02-01 | 2021-05-07 | 广州市刑事科学技术研究所 | 一种面向警情笔录的事件论元角色抽取方法和装置 |
CN113342974A (zh) * | 2021-06-10 | 2021-09-03 | 国网电子商务有限公司 | 一种网络安全实体重叠关系的识别方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112069825B (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112214995B (zh) | 用于同义词预测的分层多任务术语嵌入学习 | |
Gallant et al. | Representing objects, relations, and sequences | |
CN111738003B (zh) | 命名实体识别模型训练方法、命名实体识别方法和介质 | |
CN111159407B (zh) | 训练实体识别和关系分类模型的方法、装置、设备及介质 | |
CN110633366B (zh) | 一种短文本分类方法、装置和存储介质 | |
CN113407660B (zh) | 非结构化文本事件抽取方法 | |
Lei et al. | Patent analytics based on feature vector space model: A case of IoT | |
CN113553440B (zh) | 一种基于层次推理的医学实体关系抽取方法 | |
Zhang et al. | Aspect-based sentiment analysis for user reviews | |
CN113254675B (zh) | 基于自适应少样本关系抽取的知识图谱构建方法 | |
CN112069825B (zh) | 面向警情笔录数据的实体关系联合抽取方法 | |
CN113255321A (zh) | 基于文章实体词依赖关系的金融领域篇章级事件抽取方法 | |
CN114781382A (zh) | 基于rwlstm模型融合的医疗命名实体识别系统及方法 | |
CN114021584B (zh) | 基于图卷积网络和翻译模型的知识表示学习方法 | |
Zhang et al. | Hierarchical representation and deep learning–based method for automatically transforming textual building codes into semantic computable requirements | |
CN117151222B (zh) | 领域知识引导的突发事件案例实体属性及其关系抽取方法、电子设备和存储介质 | |
Jin et al. | Textual content prediction via fuzzy attention neural network model without predefined knowledge | |
CN114881038B (zh) | 基于跨度和注意力机制的中文实体与关系抽取方法及装置 | |
CN114757183B (zh) | 一种基于对比对齐网络的跨领域情感分类方法 | |
CN116680407A (zh) | 一种知识图谱的构建方法及装置 | |
Gabralla et al. | Deep learning for document clustering: a survey, taxonomy and research trend | |
Liu et al. | Text Analysis of Community Governance Case based on Entity and Relation Extraction | |
Xu et al. | A brief review of relation extraction based on pre-trained language models | |
CN117807999B (zh) | 基于对抗学习的域自适应命名实体识别方法 | |
Song et al. | Prior-guided multi-scale fusion transformer for face attribute recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |