CN112446215A - 一种实体关系联合抽取方法 - Google Patents
一种实体关系联合抽取方法 Download PDFInfo
- Publication number
- CN112446215A CN112446215A CN202011470863.7A CN202011470863A CN112446215A CN 112446215 A CN112446215 A CN 112446215A CN 202011470863 A CN202011470863 A CN 202011470863A CN 112446215 A CN112446215 A CN 112446215A
- Authority
- CN
- China
- Prior art keywords
- entity
- vector
- character
- learning
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 52
- 239000013598 vector Substances 0.000 claims abstract description 105
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 abstract description 8
- 238000009825 accumulation Methods 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 4
- 239000011159 matrix material Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000004927 fusion Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- FSCNUJMKSQHQSY-UHFFFAOYSA-N Gein Chemical compound COC1=CC(CC=C)=CC=C1OC1C(O)C(O)C(O)C(COC2C(C(O)C(O)CO2)O)O1 FSCNUJMKSQHQSY-UHFFFAOYSA-N 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请提供的一种实体关系联合抽取方法包括:利用BERT学习单字符向量,通过BiLSTM输出指定维度字符向量;字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;Transformer编码器学习字符特征;进行实体分类;实体关系分类特征学习;实体关系分类。本申请通过底层共享网络参数的方式,进行联合抽取,解决抽取时间和误差累计的问题;通过引入分词与词表向量,解决实体边界的问题;通过引入实体边界信息和Sigmoid的方法解决实体重叠问题;通过Sigmoid的方法解决实体关系重叠的问题,克服了现有技术的不足。
Description
技术领域
本申请涉及自然语言处理领域技术领域,尤其涉及一种实体关系联合抽取方法。
背景技术
实体关系抽取ERE(Entity and Relation Extraction)是信息抽取的关键任务之一,主要用于从非结构化文档中自动抽取用户关注的实体和实体之间的关系,广泛应用于自然语言处理领域,如知识图谱构建、智能问答、推荐系统等。ERE是级联任务,分为两个子任务:实体抽取和实体关系抽取。
实体抽取:也称为命名实体识别,是信息抽取的一个子任务,主要是定位出非结构化文档中实体的位置及边界,再对实体进行预先定义的类别的分类,如时间、地点、人物、机构等。不同的业务场景具有不同的实体类别定义,如:《冰心散文集》的发行时间是多久?句子中包含作者“冰心”,作品“冰心散文集”等实体。
实体关系抽取:实体抽取完成后,信息抽取还需要预测任意两个实体之间的语义关系,如出生于、位于、属于等关系。一般用三元组来表示(Subject,relation,Object),如:《冰心散文集》的发行时间是多久?实体“冰心”与实体“冰心散文集”存在“创作”的关系,即(冰心,创作,冰心散文集)。
常用的实体关系抽取方法为:基于Pipeline的深度学习方法,即先进行实体抽取,然后任意组合两个实体,再进行分类的方式进行实体关系抽取;实体关系的联合抽取:通过共享网络参数和联合损失函数对模型进行训练。
目前,实体关系抽取方面还存在如下不足:1、误差累计:实体抽取的错误会影响下一步关系抽取的性能;2、实体边界问题:实体一般为词或词的组合,基于字符的实体抽取没有考虑中文的分词信息,无法进一步提升实体抽取准确率;3、实体重叠问题:一个较长实体里面包含较短长度实体,常用算法只能识别单个实体;4、关系重叠问题:一段文本中两个实体存在多种关系、一个实体与其他多个实体存在关系、较长实体与较短实体存在关系。
发明内容
本申请的目的是,创建一种基于transformer和词表的实体关系联合抽取方法,克服现有技术的不足。通过底层共享网络参数的方式,进行联合抽取,解决抽取时间和误差累计的问题;通过引入分词与词表向量,解决实体边界的问题;通过引入实体边界信息和SoftMax替换为Sigmoid的方法解决实体重叠问题;通过SoftMax替换为Sigmoid的方法解决关系重叠的问题。
本申请提供了一种实体关系联合抽取方法,包括如下步骤:
利用BERT学习单字符向量,通过BiLSTM(Bi-directional Long Short-TermMemory)输出指定维度字符向量;
字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;
Transformer编码器学习字符特征;
进行实体分类;
实体关系分类特征学习;
实体关系分类。
进一步的,所述Transformer编码器学习字符特征,包括:输入实体识别Transformer编码器中得到字符嵌入表示学习,将字符向量输入关系抽取Transformer编码器中得到字符嵌入表示学习。
进一步的,所述进行实体分类为:实体识别Transformer编码器的输出结果,通过线性变化及Sigmoid进行实体分类。
进一步的,所述实体关系分类特征学习为:实体识别Transformer编码器和实体关系抽取Transformer编码器输出结果进行拼接,添加任意两个实体的位置信息,输入Transformer解码器,输出实体关系分类特征向量。
进一步的,所述实体关系分类为:将实体关系分类特征向量,输入多层感知机和Sigmoid进行实体关系分类。
进一步的,所述一种实体关系联合抽取方法还包括设置损失函数参数进行模型训练。
进一步的,所述损失函数为:Loss=α*Entity_Loss+β*Relation_Loss;
其中Entity_Loss为实体识别损失函数,Relation_Loss为关系抽取损失函数,α、β为损失函数权重,α、β>=1。
由以上技术方案可知,本申请提供的一种实体关系联合抽取方法包括:利用BERT学习单字符向量,通过BiLSTM输出指定维度字符向量;字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;Transformer编码器学习字符特征;进行实体分类;实体关系分类特征学习;实体关系分类。本申请通过底层共享网络参数的方式,进行联合抽取,解决抽取时间和误差累计的问题;通过引入分词与词表向量,解决实体边界的问题;通过引入实体边界信息和SoftMax替换为Sigmoid的方法解决实体重叠问题;通过SoftMax替换为Sigmoid的方法解决关系重叠的问题,克服了现有技术的不足。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一种实体关系联合抽取方法示意图;
图2为字符向量、词表向量和位置向量拼接示意图;
图3为Transformer编码器示意图;
图4为实体分类示意图;
图5为实体关系分类特征编码示意图。
具体实施方式
下面将详细地对实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下实施例中描述的实施方式并不代表与本申请相一致的所有实施方式。仅是与权利要求书中所详述的、本申请的一些方面相一致的系统和方法的示例。
本申请提供了一种实体关系联合抽取方法,通过底层共享网络参数的方式,进行联合抽取,解决抽取时间和误差累计的问题;通过引入分词与词表向量,解决实体边界的问题;通过引入实体边界信息和SoftMax替换为Sigmoid的方法解决实体重叠问题;通过SoftMax替换为Sigmoid的方法解决关系重叠的问题。
参见图1,为本申请一种实体关系联合抽取方法示意图;
步骤1:利用BERT学习单字符向量,通过BiLSTM输出指定维度字符向量;
单字符向量的表示学习:
输入段落内容P={c1,c2,c3,c4,…,cn},其中ci∈C,i=1,2,…,n,n表示段落字符个数,C表示所有字符空间。通过预训练模型BERT,得到连接上下文信息的字符向量矩阵I={i1,i2,i3,i4,…,in},其中,in∈Rd,in是实数空间的d维向量,R为实数空间。
通过BiLSTM输出指定维度字符向量:
将得到的字符向量矩阵I={i1,i2,i3,i4,…,in},输入BiLSTM,设置BiLSTM输出维度为dd,输出Ic={ic1,ic2,ic3,ic4,…,icn}字符向量矩阵,其中icn为dd维向量。
步骤2:字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;
段落分词,将分词长度大于2的组成集合D={w1,w2,...,wx},其中wi∈W,i=1,2,...,x,x表示分词长度大于2的个数,W为词表空间;
将集合D={w1,w2,...,wx}通过词表库,表示为词向量矩阵Iw={iw1,iw2,…,iwx},其中iwx∈Rdd,iwx是实数空间的dd维向量,R为实数空间;
位置信息向量表示L={l1,l2,l3,...,ln},其中ln∈Rk,ln是实数空间的k维向量;
参见图2,为字符向量、词表向量和位置向量拼接示意图;
字符向量拼接位置信息向量,词表向量拼接位置信息向量,如图2所示,公式如下;
其中Ic为单字符向量矩阵,Iw为词向量矩阵,Lb为{l1,l2,l3,...,lk}表示字符在段落中的开始位置向量矩阵,Le为{l1,l2,l3,...,lk}表示字符在段落中的结束位置向量矩阵,L′b为{lm,ln,...}表示词在段落中的开始位置向量矩阵,L′e为{lm,ln,...}表示词在段落中的结束位置向量矩阵。
步骤3:Transformer编码器学习字符特征;
参见图3,为Transformer编码器示意图;
如图3所示,字符向量矩阵输入实体识别Transformer编码器中得到字符嵌入表示学习;
Ge=Transformer_entity(Im)
字符Ge=(Ge1,Ge2,...,Gen)表示示实体识别Transformer编码器输出的字符嵌入矩阵,Gen表示字符嵌入表示。
字符向量矩阵输入关系抽取Transformer编码器中得到字符嵌入表示学习;
Gr=Transformer_relation(Im)
字符Gr=(Gr1,Gr2,...,Gm)表示关系抽取Transformer编码器输出的字符嵌入矩阵,Grn表示字符嵌入表示。
步骤4:实体分类;
参见图4,为实体分类示意图;
步骤3得到的Ge中的每个字符向量通过两层线性变换,输入Sigmoid进行分类,分类标签如图4所示;
O=Liner(Gei)
O=(O1,O2,...,Ok)
Pk=Sigmoid(Ok)
其中Gei中为Ge中一个字符向量,k表示字符类别数,若实体类别为n,字符按照BIO标注,则k=2*n-1,Ok表示Gei字符为第k类的特征表示,Pk表示Gei字符为第k类的概率。
步骤5:实体关系分类特征学习;
参见图5,为实体关系分类特征编码示意图;
步骤3得到的Ge、Gr、Lentity1、Lentity2进行拼接得到融合后的特征表示Gentity,如图5所示:
其中Lentity为某一实体在段落文档中的位置信息,模型训练时为标注位置信息,模型预测时为实体识别预测出的位置信息,Gentity为一组实体对信息融合后句子特征。
将Gentity输入Transformer解码器,得到关系分类特征向量Rentity。
步骤6:实体关系分类;
步骤5得到的Rentity通过两层线性变换,输入Sigmoid进行分类;
R=Liner(Rentity)
R=(R1,R2,…,Rk)
Pk=Sigmoid(Rk)
其中Rentity为一组实体对信息融合后句子特征,k表示关系类别数,Rk表示某一实体对为第k类关系的特征表示,Pk表示某一实体对为第k类关系的概率。
步骤7:设置损失函数参数,进行模型训练
Loss=α*Entity_Loss+β*Relation_Loss
其中Entity_Loss为实体识别损失函数,Relation_Loss为关系抽取损失函数,α、β为损失函数权重,α、β>=1。
为了更好的理解我们的发明方法,现以“《冰心散文集》的发行时间是多久?”为例,对本申请一种实体关系联合抽取方法进行举例说明;
步骤1:单字符向量表示
(1)将字符组合[“《”,“冰”,“心”,“散”,“文”,“集”…]输入BERT模型,得到每个字符的向量表示,其中每个字符768维;
(2)设置BiLSTM输出维度为300维,则768维向量输入BiLSTM,输出300维单字符向量。
步骤2:字符向量、位置信息向量、词表向量进行拼接,拼接方式如图2所示,其中字符向量(300维)、开始字符位置信息向量(100维)、结束字符位置信息向量(100维)纵向拼接,词表向量(300维)、开始字符位置信息向量(100维)、结束字符位置信息向量(100维)纵向拼接,然后再将拼接后的500维向量进行横向拼接。
步骤3:Transformer编码器进行实体识别和关系抽取编码,实体识别编码如图3所示,关系抽取编码器结构相同。
步骤4:对每个字符编码进行分类,如图4所示,“冰”、“心”同时属于“作者”和“作品”实体的一部分,“散”、“文”、“集”属于“作品”实体的一部分。
步骤5:关系分类特征学习
拼接实体抽取和关系抽取Transformer模块输出特征;
再拼接实体在句子中的位置信息特征,如图5所示,其中“0”号位置代表实体的位置,其他为字符在句子中的位置。
步骤6:步骤5的拼接结果通过Transformer解码器,再进行多类别的分类。
步骤7:设置损失函数参数α=2,β=1,进行模型训练。
由以上技术方案可知,本申请提供的一种实体关系联合抽取方法包括:利用BERT学习单字符向量,通过BiLSTM输出指定维度字符向量;字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;Transformer编码器学习字符特征;进行实体分类;实体关系分类特征学习;实体关系分类。本申请通过底层共享网络参数的方式,进行联合抽取,解决抽取时间和误差累计的问题;通过引入分词与词表向量,解决实体边界的问题;通过引入实体边界信息和SoftMax替换为Sigmoid的方法解决实体重叠问题;通过SoftMax替换为Sigmoid的方法解决关系重叠的问题,克服了现有技术的不足。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。
Claims (7)
1.一种实体关系联合抽取方法,其特征在于,包括:
利用BERT学习单字符向量,通过BiLSTM输出指定维度字符向量;
字符向量拼接每个字符的位置信息向量,词表向量拼接词的位置信息向量,将所有字符向量和词表向量相连;
Transformer编码器学习字符特征;
进行实体分类;
实体关系分类特征学习;
实体关系分类。
2.根据权利要求1所述的一种实体关系联合抽取方法,其特征在于,所述Transformer编码器学习字符特征,包括:输入实体识别Transformer编码器中得到字符嵌入表示学习,将字符向量输入关系抽取Transformer编码器中得到字符嵌入表示学习。
3.根据权利要求2所述的一种实体关系联合抽取方法,其特征在于,所述进行实体分类为:实体识别Transformer编码器的输出结果,通过线性变化及Sigmoid进行实体分类。
4.根据权利要求3所述的一种实体关系联合抽取方法,其特征在于,所述实体关系分类特征学习为:实体识别Transformer编码器和实体关系抽取Transformer编码器输出结果进行拼接,添加任意两个实体的位置信息,输入Transformer解码器,输出实体关系分类特征向量。
5.根据权利要求4所述的一种实体关系联合抽取方法,其特征在于,所述实体关系分类为:将实体关系分类特征向量,输入多层感知机和Sigmoid进行实体关系分类。
6.根据权利要求1-5任意一项所述的一种实体关系联合抽取方法,其特征在于,包括设置损失函数参数进行模型训练。
7.根据权利要求6所述的一种实体关系联合抽取方法,其特征在于,所述损失函数为:Loss=α*Entity_Loss+β*Relation_Loss;
其中Entity_Loss为实体识别损失函数,Relation_Loss为实体关系抽取损失函数,α、β为损失函数权重,α、β>=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011470863.7A CN112446215B (zh) | 2020-12-14 | 2020-12-14 | 一种实体关系联合抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011470863.7A CN112446215B (zh) | 2020-12-14 | 2020-12-14 | 一种实体关系联合抽取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446215A true CN112446215A (zh) | 2021-03-05 |
CN112446215B CN112446215B (zh) | 2024-03-22 |
Family
ID=74739884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011470863.7A Active CN112446215B (zh) | 2020-12-14 | 2020-12-14 | 一种实体关系联合抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446215B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128229A (zh) * | 2021-04-14 | 2021-07-16 | 河海大学 | 一种中文实体关系联合抽取方法 |
CN113158676A (zh) * | 2021-05-12 | 2021-07-23 | 清华大学 | 专业实体与关系联合抽取方法、系统及电子设备 |
CN113779999A (zh) * | 2021-11-12 | 2021-12-10 | 航天宏康智能科技(北京)有限公司 | 命名实体识别方法和命名实体识别装置 |
CN116823152A (zh) * | 2023-05-31 | 2023-09-29 | 杭州微宏科技有限公司 | 一种线下表单的自动线上化方法、系统、装置和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832400A (zh) * | 2017-11-01 | 2018-03-23 | 山东大学 | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
US20190122145A1 (en) * | 2017-10-23 | 2019-04-25 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for extracting information |
CN110502627A (zh) * | 2019-08-28 | 2019-11-26 | 上海海事大学 | 一种基于多层Transformer聚合编码器的答案生成方法 |
CN111192692A (zh) * | 2020-01-02 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-14 CN CN202011470863.7A patent/CN112446215B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190122145A1 (en) * | 2017-10-23 | 2019-04-25 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for extracting information |
CN107832400A (zh) * | 2017-11-01 | 2018-03-23 | 山东大学 | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN110502627A (zh) * | 2019-08-28 | 2019-11-26 | 上海海事大学 | 一种基于多层Transformer聚合编码器的答案生成方法 |
CN111192692A (zh) * | 2020-01-02 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
刘鉴;张怡;张勇;: "基于双向LSTM和自注意力机制的中文关系抽取研究", 山西大学学报(自然科学版), no. 01 * |
王华锋;王久阳;: "一种基于Roberta的中文实体关系联合抽取模型", 北方工业大学学报, no. 02 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128229A (zh) * | 2021-04-14 | 2021-07-16 | 河海大学 | 一种中文实体关系联合抽取方法 |
CN113128229B (zh) * | 2021-04-14 | 2023-07-18 | 河海大学 | 一种中文实体关系联合抽取方法 |
CN113158676A (zh) * | 2021-05-12 | 2021-07-23 | 清华大学 | 专业实体与关系联合抽取方法、系统及电子设备 |
CN113779999A (zh) * | 2021-11-12 | 2021-12-10 | 航天宏康智能科技(北京)有限公司 | 命名实体识别方法和命名实体识别装置 |
CN116823152A (zh) * | 2023-05-31 | 2023-09-29 | 杭州微宏科技有限公司 | 一种线下表单的自动线上化方法、系统、装置和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112446215B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111291185B (zh) | 信息抽取方法、装置、电子设备及存储介质 | |
CN111310471B (zh) | 一种基于bblc模型的旅游命名实体识别方法 | |
CN110032737B (zh) | 一种基于神经网络的边界组合命名实体识别方法 | |
CN112446215B (zh) | 一种实体关系联合抽取方法 | |
CN111738004A (zh) | 一种命名实体识别模型的训练方法及命名实体识别的方法 | |
CN108595708A (zh) | 一种基于知识图谱的异常信息文本分类方法 | |
CN113468888A (zh) | 基于神经网络的实体关系联合抽取方法与装置 | |
CN110263325A (zh) | 中文分词系统 | |
CN110781290A (zh) | 一种长篇章结构化文本摘要提取方法 | |
CN113191148A (zh) | 一种基于半监督学习和聚类的轨道交通实体识别方法 | |
CN109919175A (zh) | 一种结合属性信息的实体多分类方法 | |
CN116341519A (zh) | 基于背景知识的事件因果关系抽取方法、装置及存储介质 | |
CN115374786A (zh) | 实体和关系联合抽取方法及装置、存储介质和终端 | |
CN113361259B (zh) | 一种服务流程抽取方法 | |
CN113051904B (zh) | 一种面向小规模知识图谱的链接预测方法 | |
CN114722204A (zh) | 多标签文本分类方法及装置 | |
CN114444484A (zh) | 一种基于双层图的文档级事件抽取方法及系统 | |
CN110705306B (zh) | 一种作文文题一致性的测评方法 | |
CN117172253A (zh) | 一种基于标签信息引导的社交媒体多模态命名实体识别方法 | |
CN116910196A (zh) | 一种基于多任务学习的校园安全突发事件抽取方法 | |
CN115034302B (zh) | 优化信息融合策略的关系抽取方法、装置、设备及介质 | |
CN110210033A (zh) | 基于主述位理论的汉语基本篇章单元识别方法 | |
CN115859989A (zh) | 基于远程监督的实体识别方法及系统 | |
CN115794998A (zh) | 一种基于对比学习的专业领域术语挖掘方法 | |
CN115827871A (zh) | 互联网企业分类的方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |