CN113221568B - 一种基于神经网络的改进分层序列标注联合关系抽取方法 - Google Patents

一种基于神经网络的改进分层序列标注联合关系抽取方法 Download PDF

Info

Publication number
CN113221568B
CN113221568B CN202110507161.XA CN202110507161A CN113221568B CN 113221568 B CN113221568 B CN 113221568B CN 202110507161 A CN202110507161 A CN 202110507161A CN 113221568 B CN113221568 B CN 113221568B
Authority
CN
China
Prior art keywords
text
sequence
head
subject
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110507161.XA
Other languages
English (en)
Other versions
CN113221568A (zh
Inventor
高镇
庞佳佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110507161.XA priority Critical patent/CN113221568B/zh
Publication of CN113221568A publication Critical patent/CN113221568A/zh
Application granted granted Critical
Publication of CN113221568B publication Critical patent/CN113221568B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biomedical Technology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于神经网络的改进分层序列标注联合关系抽取方法,包括:将文本输入模型,通过预训练模型获取文本特征向量;将文本特征向量通过CNN模块进行解码,输出主体的头位置标记序列;将主体的头位置标记序列与文本特征向量融合,通过CNN模块解码,输出主体的尾位置标记序列;将主体的先验信息与文本特征向量融合形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的头位置标记序列;再将客体的头位置标记序列与文本特征向量融合,形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的尾位置标注序列,同时完成关系与客体的解码;根据主客体的头尾位置标记序列输出文本包含的三元组。

Description

一种基于神经网络的改进分层序列标注联合关系抽取方法
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种基于神经网络的改进分层序列标注联合关系抽取方法。
背景技术
关系抽取作为信息抽取的一个子任务,是在给定非结构化或半结构化文本情况下,通过一定技术方法来自动的识别实体以及实体之间的关系。随着自然语言处理领域关系抽取技术的不断发展,各行各业产生的大量结构化、半结构化、非结构化的海量数据中隐藏的信息得以被挖掘和再开发,为社会进步和行业发展提供了新的动力和发展引导作用。
早期关系抽取模型主要基于规则和模板,准确率高但召回率低。接着机器学习被引入自然语言处理领域,但其仍需要专业的领域知识,灵活性较差。近年来深度学习领域不断兴起,多种神经网络模型被引入关系抽取领域,大大简化特征提取过程,也增强了任务效果。预训练模型BERT的出现提升了多个自然语言处理领域的任务效果,为下游任务提供了丰富的文本语义信息特征向量,许多下游任务只需要接在其输出之后进行微调,就可以取得不错的效果。然而,BERT模型存在位置特征提取的有效性问题。除此之外关系抽取模型抽取架构,实体重叠和嵌套等问题也受到了关注和研究。
总的来说,关系抽取领域面临的挑战主要有以下两个方面:
1、如何获取更丰富准确的语义信息表达向量;
2、如何解决关系抽取中的实体重叠和嵌套问题;
发明内容
针对现有关系抽取模型存在的缺陷,本发明提供一种端到端的基于神经网络的改进分层序列标注联合关系抽取方法,采用所设计的CNN模块接在预训练模型BERT之后,取代传统的全连接层进行全句所有文字的序列标注工作,并在传统的序列标注基础上使用了一种改进的“半指针-半标注”方式,增强实体抽取的效果。技术方案如下:
一种基于神经网络的改进分层序列标注联合关系抽取方法,包括以下步骤:
步骤一:将文本输入模型,通过预训练模型获取文本特征向量;
步骤二:将文本特征向量通过CNN模块进行解码,输出主体的头位置标记序列;
步骤三:将主体的头位置标记序列与文本特征向量融合,通过CNN模块解码,输出主体的尾位置标记序列;
步骤四:将主体的先验信息与文本特征向量融合形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的头位置标记序列;
步骤五:将客体的头位置标记序列与文本特征向量融合,形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的尾位置标注序列,同时完成关系与客体的解码;
步骤六:根据主客体的头尾位置标记序列输出文本包含的三元组。
进一步地,通过预训练模型BERT获取文本特征向量。
进一步地,步骤一按照下列步骤执行:将输入文本进行预处理,按照指定长度n对其进行截断或补充,输入BERT,根据BERT字表,每个字都有其对应ID,故获取文本序列对应的ID序列,长度为n,再将ID序列输入BERT模型,获取输出的文本特征向量
Figure BDA0003058890420000021
其中n代表文本长度,k代表每个字的文本特征向量的维度
进一步地,标记主体头尾位置时m为1,标记客体头尾位置时m为关系个数,所述CNN模块解码具体为:
(1)采用不同核大小的数个一维卷积核,设卷积核的大小共有s种,每种大小的卷积核都有l个,对于不同大小的卷积核,采取自适应补零操作,对文本特征向量前后进行补零,使得每种卷积核对于同一个文本特征向量的输入,输出长度都与原文本特征向量保持一致,即长度都为n,经过s组卷积核的作用,得到s个n×l维的输出矩阵H0,H1,...,Hs-1
(2)将多组卷积核的输出在列维度上进行拼接,得到n×(s*l)维的中间矩阵H;
(3)将中间矩阵H输入两层全连接层,得到一个n×m维的输出向量H';
(4)将H'通过sigmoid函数,即对其每一个位置元素xi进行归一化;
(5)得到一个n×m维的位置标记序列
Figure BDA0003058890420000022
进一步地,所述主体的头位置标记序列与文本特征向量融合具体为:
将主体的头位置标记序列An×1与文本特征向量
Figure BDA0003058890420000023
在列上进行拼接,得到一个n×(k+1)维的文本特征向量。
进一步地,所述将客体的头位置标记序列与文本特征向量融合具体为:
将客体的头位置标记序列An×m与文本特征向量
Figure BDA0003058890420000024
在列上进行拼接,得到一个n×(k+m)维的文本特征向量。
进一步地,所述主体的先验信息与文本特征向量融合具体为:
将主体的先验信息即主体头尾位置的文本特征向量进行平均,再与文本特征向量
Figure BDA0003058890420000025
相加。
进一步地,所述主体的先验信息具体为:
在训练过程中是指文本特征向量中由文本的实际主体的头尾位置指定的部分;在预测过程中由于不知文本的实际主体的头尾位置,所以是指文本特征向量的由预测的主体的头尾位置标记序列中数值大于阈值h的位置指定的部分。
本发明提供的技术方案的有益效果是:
1、本发明采用精心设计的CNN模块接在预训练模型BERT之后进行全句所有文字的序列标注工作,现有技术大多在进行序列标注时直接采用全连接层进行标注工作,这样在对文本每个位置进行标注时并没有考虑邻居字的影响,导致结果不够准确;本发明能够有效利用CNN模块更关注局部信息的优势,一定程度上也能补充BERT模型提取到的位置特征弱的问题。
2、本发明在传统的序列标注基础上提出了一种改进的“半指针-半标注”方式,现存一种类似方法进行序列标注以抽取三元组实体时,同时分别对两个序列作为实体头尾位置序列进行标注,这样的方式忽略头尾位置信息相互的影响;本发明提出先对更具有独立性的实体的头位置序列进行标注,再将其标注好的信息与文本信息融合,去标注实体的尾位置,这样进一步缓解三元组实体嵌套问题,实体抽取更加准确。
附图说明
图1为本发明的技术方案的流程总图;
图2为本发明基于神经网络的分层序列标注联合关系抽取方法的流程示意图;
图3为应用于文本序列标注的卷积神经网络CNN的网络结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。下列实施例仅用于解释本发明的发明内容,并不用于限定本发明的保护范围。
实施例1
一种基于神经网络的改进分层序列标注联合关系抽取方法,参见图2,该方法包括以下步骤:
101:将文本输入模型,通过预训练模型BERT获取文本特征向量输出。
102:将文本特征向量通过卷积神经网络模块(Convolutional Neural Networks,CNN)进行解码,输出主体的头位置标记序列。
可以注意到,本发明采用精心设计的CNN模块接在了预训练模型BERT之后进行序列标注。现有方法在进行序列标注的模型大多都很简单,对上下文信息融合能力有限。本方法有效利用到了CNN模块更关注局部信息的优势,一定程度上也能补充更多的位置特征,从而进行更准确的标注。
103:将主体的头位置标记序列与文本特征向量融合,通过CNN模块解码,输出主体的尾位置标记序列。
104:将主体的先验信息与文本特征向量融合形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的头位置标记序列。
105:再将客体的头位置标记序列与文本特征向量融合,通过CNN模块解码,输出对应主体所有关系下的客体的尾位置标注序列,同时完成关系与客体的解码。
106:根据步骤102、103、104、105输出的主客体的头尾位置标记序列输出文本包含的三元组信息。
103和105步骤都提到将实体的头位置标记序列与文本特征向量融合,再进行实体的尾位置序列标记,这是本发明在传统的“半指针-半标注”序列标注方法基础上提出了一种改进的“半指针-半标注”方式。传统方法进行序列标注以抽取三元组实体时,同时将两个序列作为实体头尾位置序列进行标注,忽略头尾位置信息相互的影响。经实验证明,本方法的改进能进一步缓解三元组实体重叠问题,实体抽取更加准确。
实施例2
下面结合具体的实例、计算公式对实施例1中的方案进行进一步地介绍,详见下文描述:
201:将文本输入模型,通过预训练模型BERT获取文本特征向量。
其中,上述步骤201主要包括:将输入文本进行预处理,按照指定长度n对其进行截断或补充,输入BERT,根据BERT字表,每个字都有其对应ID,故可获取文本序列对应的ID序列,长度为n。再将ID序列输入BERT模型,获取输出的文本特征向量
Figure BDA0003058890420000041
其中n代表文本长度,k代表每个字的文本特征向量的维度。
202:将文本特征向量
Figure BDA0003058890420000042
通过CNN模块进行解码,输出主体的头位置标记序列。
其中步骤202中的CNN模块采用不同核大小的数个一维卷积核,具体的结构如图3所示。卷积核的大小共有s种,每种大小的卷积核都有l个。对于不同大小的卷积核,本方法采取自适应补零操作,对文本特征向量前后进行补零,设每种卷积核大小为si,则输入每种卷积核的文本向量需要补零的行数xi为:
Figure BDA0003058890420000043
这样使得每种卷积核对于同一个文本特征向量的输入,输出长度都与原文本特征向量保持一致,即长度都为n。经过s组卷积核的作用,得到s个n×l维的输出矩阵H0,H1,...,Hs-1
将多组卷积核的输出在列维度上进行拼接,得到一个n×(s*l)维的中间矩阵H:
H=concat(H0,H1,...Hs-1)
并将其输入两层全连接层,得到一个n×1维的输出向量H':
H'=W1(Relu(W0H+b0))+b1
然后将H'通过sigmoid函数,即对其每一个位置元素xi进行归一化:
Figure BDA0003058890420000051
最后得到一个n×1维的头位置标记序列
Figure BDA0003058890420000052
本方法将CNN模块应用于为每个字标记的做法能够大大提高标记准确率,不同大小的卷积核的使用保证了标记结果综合考虑了不同范围内邻居字的信息的影响,多个相同大小的卷积核又进一步保证了标记结果综合考虑不同维度空间下某个范围内邻居字的影响。
203:将主体的头位置标记序列
Figure BDA0003058890420000053
与文本特征向量
Figure BDA0003058890420000054
融合,输入CNN模块解码,输出主体的尾位置标记序列
Figure BDA0003058890420000055
其中,203步骤中的融合操作是指将202步骤输出的主体的头位置标记序列An×1与201步骤输出的文本特征向量
Figure BDA0003058890420000056
在列上进行拼接,得到一个n×(k+1)维的文本特征向量;CNN模块解码步骤与202步骤中所述一致;本步骤最终得到主体的尾位置标记序列
Figure BDA0003058890420000057
传统的指针标记方式通过同时对头尾位置序列的分别标记输出结果,忽略了头尾位置信息之间的影响和信息交互,本方法提出的改进能使头尾位置的标记过程联系起来,提高实体抽取的效果和准确率。
204:将主体的先验信息与文本特征向量
Figure BDA0003058890420000058
融合形成新的文本特征向量
Figure BDA0003058890420000059
通过CNN模块解码,输出对应主体在所有关系下的客体的头位置标记序列
Figure BDA00030588904200000510
其中m是关系的个数。
其中,204步骤中的“主体的先验信息”在训练过程中是指201步骤输出的文本特征向量中由文本的实际主体的头尾位置指定的部分,在预测过程中由于不知文本的实际主体的头尾位置,所以是指201步骤输出的文本特征向量中由202步骤和203步骤分别输出的预测的实体的头尾位置标记序列中数值大于阈值h的位置指定的部分;融合操作是指先将主体的先验信息即头尾位置的文本特征向量进行平均,再与201步骤输出的文本表达向量
Figure BDA00030588904200000511
相加得到新的文本特征向量
Figure BDA0003058890420000061
CNN模块解码步骤与202步骤中所述一致,但要注意从全连接层输出获取的向量应是n×m维。
205:将客体的头的位置标记序列
Figure BDA0003058890420000062
与文本特征向量
Figure BDA0003058890420000063
融合,输入CNN模块解码,输出对应主体所有关系下的客体的尾位置标注序列
Figure BDA0003058890420000064
同时完成关系与客体的解码。
其中205步骤中的融合操作与203步骤中所述一致,但注意此处得到的是一个n×(k+m)维的文本特征向量;CNN模块解码步骤与202步骤中所述一致,同样的要注意从全连接层输出获取的向量应是n×m维。
206:根据步骤202、203、204、205输出的主客体的头尾位置标记序列,分别将其与对应阈值比较大小,大于阈值则说明该位置为主客体的头/尾位置,通过组合则可输出文本包含的三元组信息。
Figure BDA0003058890420000065
例如如表所示的头尾位置标记序列可得到王明、天津市、天津市政府大街三个实体。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于神经网络的改进分层序列标注联合关系抽取方法,包括以下步骤:
步骤一:将文本输入模型,通过预训练模型BERT获取文本特征向量,步骤如下:将输入文本进行预处理,按照指定长度n对其进行截断或补充,输入BERT,根据BERT字表,每个字都有其对应ID,故获取文本序列对应的ID序列,长度为n,再将ID序列输入BERT模型,获取输出的文本特征向量
Figure FDA0003562406830000011
其中n代表文本长度,k代表每个字的文本特征向量的维度;
步骤二:将文本特征向量通过CNN模块进行解码,输出主体的头位置标记序列;标记主体头尾位置时m为1,标记客体头尾位置时m为关系个数,所述CNN模块解码具体为:
(1)采用不同核大小的数个一维卷积核,设卷积核的大小共有s种,每种大小的卷积核都有l个,对于不同大小的卷积核,采取自适应补零操作,对文本特征向量前后进行补零,使得每种卷积核对于同一个文本特征向量的输入,输出长度都与原文本特征向量保持一致,即长度都为n,经过s组卷积核的作用,得到s个n×l维的输出矩阵H0,H1,...,Hs-1
(2)将多组卷积核的输出在列维度上进行拼接,得到n×(s*l)维的中间矩阵H;
(3)将中间矩阵H输入两层全连接层,得到一个n×m维的输出向量H';
(4)将H'通过sigmoid函数,即对其每一个位置元素xi进行归一化;
(5)得到一个n×m维的位置标记序列
Figure FDA0003562406830000012
步骤三:将主体的头位置标记序列与文本特征向量融合,通过CNN模块解码,输出主体的尾位置标记序列;所述主体的头位置标记序列与文本特征向量融合具体为:将主体的头位置标记序列An×1与文本特征向量
Figure FDA0003562406830000013
在列上进行拼接,得到一个n×(k+1)维的文本特征向量;
步骤四:将主体的先验信息与文本特征向量融合形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的头位置标记序列;
其中,所述主体的先验信息为:在训练过程中是指文本特征向量中由文本的实际主体的头尾位置指定的部分;在预测过程中由于不知文本的实际主体的头尾位置,所以是指文本特征向量的由预测的主体的头尾位置标记序列中数值大于阈值h的位置指定的部分;
所述主体的先验信息与文本特征向量融合为:将主体的先验信息即主体头尾位置的文本特征向量进行平均,再与文本特征向量
Figure FDA0003562406830000021
相加;
步骤五:将客体的头位置标记序列与文本特征向量融合,形成新的文本特征向量,通过CNN模块解码,输出对应主体所有关系下的客体的尾位置标注序列,同时完成关系与客体的解码;所述将客体的头位置标记序列与文本特征向量融合为:将客体的头位置标记序列An×m与文本特征向量
Figure FDA0003562406830000022
在列上进行拼接,得到一个n×(k+m)维的文本特征向量;
步骤六:根据主客体的头尾位置标记序列输出文本包含的三元组。
CN202110507161.XA 2021-05-10 2021-05-10 一种基于神经网络的改进分层序列标注联合关系抽取方法 Expired - Fee Related CN113221568B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110507161.XA CN113221568B (zh) 2021-05-10 2021-05-10 一种基于神经网络的改进分层序列标注联合关系抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110507161.XA CN113221568B (zh) 2021-05-10 2021-05-10 一种基于神经网络的改进分层序列标注联合关系抽取方法

Publications (2)

Publication Number Publication Date
CN113221568A CN113221568A (zh) 2021-08-06
CN113221568B true CN113221568B (zh) 2022-05-17

Family

ID=77094359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110507161.XA Expired - Fee Related CN113221568B (zh) 2021-05-10 2021-05-10 一种基于神经网络的改进分层序列标注联合关系抽取方法

Country Status (1)

Country Link
CN (1) CN113221568B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114298052B (zh) * 2022-01-04 2023-06-20 中国人民解放军国防科技大学 一种基于概率图的实体联合标注关系抽取方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110968660A (zh) * 2019-12-09 2020-04-07 四川长虹电器股份有限公司 基于联合训练模型的信息抽取方法和系统
CN112084790A (zh) * 2020-09-24 2020-12-15 中国民航大学 一种基于预训练卷积神经网络的关系抽取方法及系统
CN112487807A (zh) * 2020-12-09 2021-03-12 重庆邮电大学 一种基于膨胀门卷积神经网络的文本关系抽取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021000362A1 (zh) * 2019-07-04 2021-01-07 浙江大学 一种基于深度神经网络模型的地址信息特征抽取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110968660A (zh) * 2019-12-09 2020-04-07 四川长虹电器股份有限公司 基于联合训练模型的信息抽取方法和系统
CN112084790A (zh) * 2020-09-24 2020-12-15 中国民航大学 一种基于预训练卷积神经网络的关系抽取方法及系统
CN112487807A (zh) * 2020-12-09 2021-03-12 重庆邮电大学 一种基于膨胀门卷积神经网络的文本关系抽取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
短语音及易混淆语种识别改进系统;李卓茜,高镇,王化,刘俊南,朱光旭;《中文信息学报》;20191031;全文 *

Also Published As

Publication number Publication date
CN113221568A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN110717334B (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN107133213B (zh) 一种基于算法的文本摘要自动提取方法与系统
CN110532554A (zh) 一种中文摘要生成方法、系统及存储介质
CN110196913A (zh) 基于文本生成式的多实体关系联合抽取方法和装置
CN109213975B (zh) 一种基于字符层级卷积变分自编码的推特文本表示方法
CN105718586A (zh) 分词的方法及装置
CN106776540A (zh) 一种自由化文本生成方法
CN115392259B (zh) 一种基于对抗训练融合bert的微博文本情感分析方法及系统
Xiang et al. Incorporating label dependency for answer quality tagging in community question answering via cnn-lstm-crf
CN112364132A (zh) 基于依存句法的相似度计算模型和系统及搭建系统的方法
He et al. Image captioning with text-based visual attention
CN114419642A (zh) 一种文档图像中键值对信息的抽取方法、装置及系统
CN113312483A (zh) 一种基于自注意力机制和BiGRU的文本分类方法
CN111914555A (zh) 基于Transformer结构的自动化关系抽取系统
CN111506700A (zh) 基于上下文感知嵌入的细粒度情感分析方法
CN113221568B (zh) 一种基于神经网络的改进分层序列标注联合关系抽取方法
Demotte et al. Sentiment analysis of Sinhala news comments using sentence-state LSTM networks
CN113609840B (zh) 一种汉语法律判决摘要生成方法及系统
CN113297374B (zh) 一种基于bert和字词特征融合的文本分类方法
CN113779966A (zh) 一种基于注意力的双向cnn-rnn深度模型的蒙文情感分析方法
Jiang et al. A BERT-Bi-LSTM-Based knowledge graph question answering method
CN114595687B (zh) 基于BiLSTM的老挝语文本正则化方法
CN114881010A (zh) 一种基于Transformer和多任务学习的中文语法纠错方法
CN114780725A (zh) 一种基于深度聚类的文本分类算法
CN115169429A (zh) 一种轻量化方面级文本情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220517

CF01 Termination of patent right due to non-payment of annual fee