CN111783461A - 一种基于句法依存关系的命名实体识别方法 - Google Patents
一种基于句法依存关系的命名实体识别方法 Download PDFInfo
- Publication number
- CN111783461A CN111783461A CN202010556881.0A CN202010556881A CN111783461A CN 111783461 A CN111783461 A CN 111783461A CN 202010556881 A CN202010556881 A CN 202010556881A CN 111783461 A CN111783461 A CN 111783461A
- Authority
- CN
- China
- Prior art keywords
- word
- sequence
- words
- dependency
- lstm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于句法依存关系的命名实体识别方法。在命名实体识别中,只有当模型所识别到的实体边界和类型都与标注实体的边界和类型相匹配,才算是真阳例(TP)。在大多数测试样本中,假阳例(FP)和假阴例(FN)往往都是由于实体的边界判断不正确造成的,也就是说边界识别比类型识别困难得多。本发明提出使用自注意力机制来削弱实体与实体以外单词的联系,并加强实体内部单词之间的关系。具体的是在双向长短期记忆网络(Bi‑LSTM)网络之后,添加自注意力机制,把句法依存树中单词之间的依存关系编码进上下文信息,最后根据Bi‑LSTM网络提供的全局特征以及句法依存树提供的局部特征,共同来判断实体边界。本发明提高了命名实体识别的准确率。
Description
技术领域:
本发明涉及深度学习领域,涉及文本中命名实体识别技术。
背景技术
传统的命名实体识别方法依赖大量的人为定义的特征,然而这类手工定义特征的方法不仅耗时耗力,还需要有领域以及语言方面知识的专业人员。近年来,深度学习依靠其强大的数据挖掘能力,最大化的减少了手工构建特征的成本,并在图像分类、语音识别以及自然语言处理等领域取得了令人瞩目的成就。因此,利用深度学习方法进行命名实体识别具有重大的研究意义。
在文本中,准确的识别命名实体类型及其实体边界对开发复杂的自然语言系统,如信息提取、问题回答、文本摘要等具有极大的影响。在命名实体识别中,只有当模型所识别到的实体边界和类型都与标注实体的边界和类型相匹配,才算是真阳例(TP)。在大多数测试样本中,假阳例(FP)和假阴例(FN)往往都是由于实体的边界判断不正确造成的,也就是说边界识别比类型识别困难得多。而大多深度网络模型中并没有针对边界识别的特定功能,使得模型往往在类型判断上准确率较高,而在边界判断上准确率较低。
发明内容:
本发明的目的是提供一种在文本中能更加准确识别命名实体边界以及类型的方法。
为解决上述技术问题,本发明提供了一种基于句法依存关系的命名实体识别方法,包括如下步骤:
步骤S1,在模型训练阶段,首先用预训练过的Word2vec把one-hot单词向量映射到定义好的低维空间,得到每个单词的词向量;
步骤S2,使用双向长短期记忆网络(Bi-LSTM)对句子中每个时间步的词向量分别进行前向和后向的编码,并拼接得到拥有上下文信息的全局特征;
步骤S3,用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径;
步骤S4,根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征;
步骤S5,通过局部特征点积来计算两两单词之间的关系权重并进行归一化;
步骤S6,使用自注意力机制以归一化的关系权重将单词之间的局部关系特征融入全局特征中,得到融合特征;
步骤S7,根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列;
步骤S8,在模型测试阶段,使用上述步骤训练好的网络来进行命名实体识别。
进一步,步骤S1中在模型训练阶段,首先用预训练过的Word2vec把one-hot单词向量映射到定义好的低维空间,得到每个单词的词向量包括:
记词典大小为V,采用预训练过的Word2vec把维度为V的one-hot单词向量映射到定义好的低维空间,输出的词向量维度记为d。对于长度为T的输入样本序列{w1,w2,...wT},嵌入层的输出记为{x1,x2,...xT},其中xt∈R1×d;
进一步,步骤S2中使用双向长短期记忆网络(Bi-LSTM)对句子中每个时间步的词向量分别进行前向和后向的编码,并拼接得到拥有上下文信息的全局特征包括:
使用隐藏单元的个数为h1的双向长短期记忆网络(Bi-LSTM1)对给定时间步t的输入xt进行前向和后向的编码,并将该时间步正向隐藏状态记为反向隐藏状态记为然后,连结两个方向的隐藏状态和来得到隐藏状态 便是拥有给定时间步t上下文信息的全局特征,对于输入序列{x1,x2,...xT},记Bi-LSTM1的输出特征为
进一步,步骤S3中用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径包括:
对于输入样本序列{w1,w2,...wT},使用依存语法分析技术对其进行句法分析,得到样本序列的依存句法树。对于输入序列中任意两个单词a与b,他们之间的最短依存路径(SDP)为{a,a1,...,am,c,bn,...,b1,b},其中c表示它们在依存句法树中的最低共同祖先,a1,...,am表示SDP上a和c之间的单词,b1,...,bn表示b和c之间的单词。若a与b表示同一个单词,则SDP记为{a,b}。
进一步,步骤S4中根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征包括:
对于输入文本序列{w1,w2,...wT}中任意两个单词a与b,他们之间的最短依存路径(SDP)可以分为两部分:自底向上的序列{a,a1,...,am,c}和{b,b1,...,bn,c};自顶向下序列{c,am,...,a1,a}和{c,bn,...,b1,b}。若a与b表示同一个单词,则SDP分为:{a};{b}两部分。
使用隐藏单元的个数为h2的双向长短期记忆网络(Bi-LSTM2)从这两种序列中提取单词之间的局部关系特征。每个LSTM2单元的输入是两个部分的串联,由
前向LSTM2根据自底向上的序列{a,a1,...,am,c}和{b,b1,...,bn,c}计算得到前向隐藏状态和后向LSTM2根据自顶向下序列{c,am,...,a1,a}和{c,bn,...,b1,b}计算得到后向隐藏状态和连结两个方向的隐藏状态↑ht和↓ht来得到单词wt的局部特征
进一步,步骤S5中通过局部特征点积来计算两两单词之间的关系权重并进行归一化包括:
按照相同的方法计算得到文本序列中两两单词之间的关系紧密系数,将所有关系紧密系数整理为一个矩阵R∈RT×T,其中矩阵的第i行代表单词wi与{w1,w2,...wT}中每一个单词的关系紧密系数,然后按行对R进行归一化得到自注意力权重矩阵
Q=Softmax(R)
进一步,步骤S6中使用自注意力机制以归一化的关系权重将单词之间的局部关系特征融入全局特征中,得到融合特征包括:
S=QH1WV
进一步,步骤S7中根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列包括:
使用融合特征S进行序列标签预测,通过CRF将初步预测的标签序列进行调整,得到最终标签序列。
本发明的有益效果是,通过自注意力机制来削弱实体与实体以外单词的联系,并加强实体内部单词之间的关系,使得网络识别实体边界更加准确,提高了命名实体识别的准确率。
附图说明:
下面结合附图和实施例对本发明进一步说明。
图1是本发明一种基于句法依存关系的命名实体识别方法的方法流程图。
图2是样本序列的依存句法树。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
实施例1
如图1所示,本实施例1提供了一种基于句法依存关系的命名实体识别方法,包括如下步骤:
步骤S1,在模型训练阶段,首先用预训练过的Word2vec把one-hot单词向量映射到定义好的低维空间,得到每个单词的词向量;
步骤S2,使用双向长短期记忆网络(Bi-LSTM)对句子中每个时间步的词向量分别进行前向和后向的编码,并拼接得到拥有上下文信息的全局特征;
步骤S3,用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径;
步骤S4,根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征;
步骤S5,通过局部特征点积来计算两两单词之间的关系权重并进行归一化;
步骤S6,使用自注意力机制以归一化的关系权重将单词之间的局部关系特征融入全局特征中,得到融合特征;
步骤S7,根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列;
步骤S8,在模型测试阶段,使用上述步骤训练好的网络来进行命名实体识别。
中英文命名实体识别任务中,要准确识别一个实体,既要判断对实体的类型,也好判断对实体的边界。根据大量的实验数据显示,命名实体识别任务的准确率往往取决于实体边界判断的准确率,也就是实体边界的判断比实体类别的判断难得多。以往大多数模型,都是通过简单的在嵌入层添加词性标签来辅助模型判断实体边界,在深度神经网络并中没有专门的模块或者机制来加强实体边界的判断。
基于以上问题,本专利提供了一种基于句法依存关系的命名实体识别方法来加强实体边界的判断,从而提高命名实体识别的准确率。依存是一种可以将句子层级结构化的语言方法。依存语法在保留句子的短语结构信息的基础上直接表示出词和词之间的关系,对于进一步语义分析十分有利。依存语法认为动词作为中心词,其他的词受其支配,这样便于理清句子中词和词之间的关系。综上所述,认为采用基于句法依存关系的命名实体识别方法有利于进行实体中的词以及实体与实体外词的关系分析,进而能更好的判断实体边界。
针对上述问题,本实施例1中步骤S1记词典大小为V,在模型训练阶段,首先采用预训练过的Word2vec把维度为V的one-hot单词向量映射到定义好的(输出的词向量维度记为d)低维空间。
例如对于长度为6的输入样本序列“Tsinghua University is located inBeijing”,嵌入层的输出记为{x1,x2,...x6},其中第t个的向量xt∈R1×d。
进一步,步骤S2中使用双向长短期记忆网络(Bi-LSTM)对句子中每个时间步的词向量分别进行前向和后向的编码,并拼接得到拥有上下文信息的全局特征包括:
使用隐藏单元的个数为h1的双向长短期记忆网络(Bi-LSTM1)对给定时间步t的输入xt进行前向和后向的编码,并将该时间步正向隐藏状态记为反向隐藏状态记为然后,连结两个方向的隐藏状态和来得到隐藏状态 便是拥有给定时间步t上下文信息的全局特征,对于输入序列{x1,x2,...x6},记Bi-LSTM1的输出特征为
进一步,步骤S3中用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径包括:
对于输入样本序列“Tsinghua University is located in Beijing”,使用依存语法分析技术对其进行句法分析,得到样本序列的依存句法树,如图2所示。
对于输入序列中任意两个单词如“Tsinghua”与“Beijing”,他们之间的最短依存路径(SDP)为{“Tsinghua”,“University”,“located”,“Beijing”},其中“located”是他们在依存句法树中的最低共同祖先,“University”是SDP上“Tsinghua”和“located”之间的单词。这里记单词(例如“University”)到自己的SDP记为{“University”,“University”}。
进一步,步骤S4中根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征包括:
对于输入文本序列“Tsinghua University is located in Beijing”中单词“Tsinghua”与“Beijing”,他们之间的最短依存路径(SDP){“Tsinghua”,“University”,“located”,“Beijing”}可以分为两部分:自底向上的序列{“Tsinghua”,“University”,“located”}和{“Beijing”,“located”};自顶向下序列{“located”,“University”,“Tsinghua”}和{“located”,“Beijing”}。单词“University”到自己的SDP{“University”,“University”}可分为:{“University”};{“University”}两部分。
使用隐藏单元的个数为h2的双向长短期记忆网络(Bi-LSTM2)从这两种序列中提取单词之间的局部关系特征。每个LSTM2单元的输入是
是由两个部分拼接而成,其中是第t个单词在Bi-LSTM1的输出,emb(dt)表示第t个单词及其依存句法树上的支配词之间的依存关系类型dt的分布式表达,例如:d1=compound,是第一个单词“Tsinghua”与他的支配词“University”的依存关系类型,emb(d1)及其余关系类型的分布式表达将被随机初始化并随网络模型参数一起进行训练。
计算单词“Tsinghua”和单词“Beijing”的关系权重:前向LSTM2根据自底向上的序列{“Tsinghua”,“University”,“located”}和{“Beijing”,“located”}计算得到前向隐藏状态和后向LSTM2根据自顶向下序列{“located”,“University”,“Tsinghua”}和{“located”,“Beijing”}计算得到后向隐藏状态和
连结单词“Tsinghua”的两个方向隐藏状态↑h1和↓h1得到单词“Tsinghua”和单词“Beijing”的局部关系特征连结单词“Beijing”的两个方向隐藏状态↑h∈和↓h6得到单词“Beijing”和单词“Tsinghua”的局部关系特征
以此类推,可以得到任意两个单词的局部关系特征。
进一步,步骤S5中通过局部特征点积来计算两两单词之间的关系权重并进行归一化包括:
按照相同的方法计算得到文本序列中两两单词之间的关系紧密系数,将所有关系紧密系数整理为一个矩阵R∈R6×6,其中矩阵的第i行代表第i个单词与句子中每一个单词的关系紧密系数,然后按行对R进行归一化得到自注意力权重矩阵
Q=Softmax(R)
进一步,步骤S6中使用自注意力机制以归一化的关系权重将单词之间的局部关系特征融入全局特征中,得到融合特征包括:
S=QH1WV
进一步,步骤S7中根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列包括:
使用融合特征S进行序列标签预测,通过CRF将初步预测的标签序列进行调整,得到最终标签序列。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (9)
1.一种基于句法依存关系的命名实体识别方法,其特征在于,包括如下步骤:
步骤S1,在模型训练阶段,首先用预训练过的Word2vec把one-hot单词向量映射到定义好的低维空间,得到每个单词的词向量;
步骤S2,使用双向长短期记忆网络对句子中每个时间步的词向量分别进行前向和后向的编码,并拼接得到拥有上下文信息的全局特征;
步骤S3,用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径;
步骤S4,根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征;
步骤S5,通过局部特征点积来计算两两单词之间的关系权重并进行归一化;
步骤S6,使用自注意力机制以归一化的关系权重将单词之间的局部关系特征融入全局特征中,得到融合特征;
步骤S7,根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列;
步骤S8,在模型测试阶段,使用上述步骤训练好的网络来进行命名实体识别。
2.根据权利要求1所述的基于句法依存关系的命名实体识别方法,其特征在于,
所述步骤S1中在模型训练阶段,首先用预训练过的Word2vec把one-hot单词向量映射到定义好的低维空间,得到每个单词的词向量包括:
记词典大小为V,采用预训练过的Word2vec把维度为V的one-hot单词向量映射到定义好的低维空间,输出的词向量维度记为d;具体的,对于长度为T的输入样本序列{w1,...,wt,...wT},其中wt∈R1×V,嵌入层的输出记为{x1,...,xt,...xT},其中xt∈R1×d。
4.根据权利要求3所述的基于句法依存关系的命名实体识别方法,其特征在于,
所述步骤S3中用句法分析技术得到每个句子的句法依存树,计算树上两两单词之间的最短依赖路径包括:
对于输入样本序列{w1,w2,...wT},使用依存语法分析技术对其进行句法分析,得到样本序列的依存句法树;对于输入序列中任意两个单词a与b,他们之间的最短依存路径(SDP)为{a,a1,...,am,c,bn,...,b1,b},其中c表示它们在依存句法树中的最低共同祖先,a1,...,am表示SDP上a和c之间的单词,b1,...,bn表示b和c之间的单词;若a与b表示同一个单词,则SDP记为{a,b}。
5.根据权利要求1所述的基于句法依存关系的命名实体识别方法,其特征在于,
所述步骤S4中根据最短依赖路径得到每个单词的自顶向下以及自底向上的特征序列并输入LSTM网络,计算得到单词局部特征包括:
对于输入文本序列{w1,w2,...wT}中任意两个单词a与b,他们之间的最短依存路径(SDP)分为两部分:自底向上的序列{a,a1,...,am,c}和{b,b1,...,bn,c};自顶向下序列{c,am,...,a1,a}和{c,bn,...,b1,b};若a与b表示同一个单词,则SDP分为:{a};{b}两部分;
使用隐藏单元的个数为h2的双向长短期记忆网络(Bi-LSTM2)从这两种序列中提取单词之间的局部关系特征;每个LSTM2单元的输入是两个部分的串联,由
8.根据权利要求1所述的基于句法依存关系的命名实体识别方法,其特征在于,
所述步骤S7中根据融合特征初步预测序列标签,使用CRF对预测序列进行精修,得到最终标签序列包括:
使用融合特征S进行序列标签预测,通过CRF将初步预测的标签序列进行调整,得到最终标签序列。
9.根据权利要求1所述的基于句法依存关系的命名实体识别方法,其特征在于,
所述步骤S8中在模型测试阶段,使用上述步骤训练好的网络来进行命名实体识别包括:
使用监督文本训练好网络参数之后,在测试阶段,使用该网络来对命名实体的类别和边界进行识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010556881.0A CN111783461A (zh) | 2020-06-16 | 2020-06-16 | 一种基于句法依存关系的命名实体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010556881.0A CN111783461A (zh) | 2020-06-16 | 2020-06-16 | 一种基于句法依存关系的命名实体识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783461A true CN111783461A (zh) | 2020-10-16 |
Family
ID=72756696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010556881.0A Pending CN111783461A (zh) | 2020-06-16 | 2020-06-16 | 一种基于句法依存关系的命名实体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783461A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287699A (zh) * | 2020-12-29 | 2021-01-29 | 南京新一代人工智能研究院有限公司 | 一种基于句法树遍历的信息融合翻译方法 |
CN112560441A (zh) * | 2020-12-22 | 2021-03-26 | 东北大学 | 自下而上规则结合神经网络的成分句法分析树构造方法 |
CN112925995A (zh) * | 2021-02-22 | 2021-06-08 | 北京百度网讯科技有限公司 | 获取poi状态信息的方法及装置 |
CN112967739A (zh) * | 2021-02-26 | 2021-06-15 | 山东省计算中心(国家超级计算济南中心) | 一种基于长短期记忆网络的语音端点检测方法及系统 |
CN112989796A (zh) * | 2021-03-10 | 2021-06-18 | 北京大学 | 一种基于句法指导的文本命名实体信息识别方法 |
CN114444472A (zh) * | 2022-04-02 | 2022-05-06 | 北京百度网讯科技有限公司 | 文本处理方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108628834A (zh) * | 2018-05-14 | 2018-10-09 | 国家计算机网络与信息安全管理中心 | 一种基于句法依存关系的词语表示学习方法 |
CN111177394A (zh) * | 2020-01-03 | 2020-05-19 | 浙江大学 | 基于句法注意力神经网络的知识图谱关系数据分类方法 |
US20200159832A1 (en) * | 2018-11-15 | 2020-05-21 | Fei CAI | Device and text representation method applied to sentence embedding |
CN111274790A (zh) * | 2020-02-13 | 2020-06-12 | 东南大学 | 基于句法依存图的篇章级事件嵌入方法及装置 |
-
2020
- 2020-06-16 CN CN202010556881.0A patent/CN111783461A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108628834A (zh) * | 2018-05-14 | 2018-10-09 | 国家计算机网络与信息安全管理中心 | 一种基于句法依存关系的词语表示学习方法 |
US20200159832A1 (en) * | 2018-11-15 | 2020-05-21 | Fei CAI | Device and text representation method applied to sentence embedding |
CN111177394A (zh) * | 2020-01-03 | 2020-05-19 | 浙江大学 | 基于句法注意力神经网络的知识图谱关系数据分类方法 |
CN111274790A (zh) * | 2020-02-13 | 2020-06-12 | 东南大学 | 基于句法依存图的篇章级事件嵌入方法及装置 |
Non-Patent Citations (3)
Title |
---|
PENGFEI CAO 等: "Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism", PROCEEDINGS OF THE 2018 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING, 4 November 2018 (2018-11-04) * |
李青青: "生物医学实体关系抽取算法与应用研究", 中国优秀硕士学位论文全文数据库基础科学辑, 15 February 2020 (2020-02-15) * |
赵华茗 等: "依存句法特征的科研命名实体识别算法", 图书情报工作, no. 11, 5 June 2020 (2020-06-05) * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560441A (zh) * | 2020-12-22 | 2021-03-26 | 东北大学 | 自下而上规则结合神经网络的成分句法分析树构造方法 |
CN112560441B (zh) * | 2020-12-22 | 2024-02-09 | 东北大学 | 自下而上规则结合神经网络的成分句法分析树构造方法 |
CN112287699A (zh) * | 2020-12-29 | 2021-01-29 | 南京新一代人工智能研究院有限公司 | 一种基于句法树遍历的信息融合翻译方法 |
CN112925995A (zh) * | 2021-02-22 | 2021-06-08 | 北京百度网讯科技有限公司 | 获取poi状态信息的方法及装置 |
CN112967739A (zh) * | 2021-02-26 | 2021-06-15 | 山东省计算中心(国家超级计算济南中心) | 一种基于长短期记忆网络的语音端点检测方法及系统 |
CN112989796A (zh) * | 2021-03-10 | 2021-06-18 | 北京大学 | 一种基于句法指导的文本命名实体信息识别方法 |
CN112989796B (zh) * | 2021-03-10 | 2023-09-22 | 北京大学 | 一种基于句法指导的文本命名实体信息识别方法 |
CN114444472A (zh) * | 2022-04-02 | 2022-05-06 | 北京百度网讯科技有限公司 | 文本处理方法、装置、电子设备和存储介质 |
CN114444472B (zh) * | 2022-04-02 | 2022-07-12 | 北京百度网讯科技有限公司 | 文本处理方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783461A (zh) | 一种基于句法依存关系的命名实体识别方法 | |
WO2018028077A1 (zh) | 一种基于深度学习的中文语义分析的方法及装置 | |
CN110532557B (zh) | 一种无监督的文本相似度计算方法 | |
CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN111611810B (zh) | 一种多音字读音消歧装置及方法 | |
CN112183094B (zh) | 一种基于多元文本特征的中文语法查错方法及系统 | |
CN112541356B (zh) | 一种生物医学命名实体识别的方法和系统 | |
US20230069935A1 (en) | Dialog system answering method based on sentence paraphrase recognition | |
CN109960728A (zh) | 一种开放域会议信息命名实体识别方法及系统 | |
CN112395876B (zh) | 基于知识蒸馏和多任务学习的篇章关系识别方法与装置 | |
CN113377897B (zh) | 基于深度对抗学习的多语言医疗术语规范标准化系统及方法 | |
CN110196982A (zh) | 上下位关系抽取方法、装置及计算机设备 | |
CN110750646B (zh) | 一种旅店评论文本的属性描述提取方法 | |
CN114548099B (zh) | 基于多任务框架的方面词和方面类别联合抽取和检测方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN113919366A (zh) | 一种面向电力变压器知识问答的语义匹配方法和装置 | |
CN114970536A (zh) | 一种分词、词性标注和命名实体识别的联合词法分析方法 | |
CN114861082A (zh) | 一种基于多维度语义表示的攻击性评论检测方法 | |
CN111091009A (zh) | 一种基于语义分析的文档关联审核方法 | |
Ezhilarasi et al. | Depicting a Neural Model for Lemmatization and POS Tagging of words from Palaeographic stone inscriptions | |
Olaleye et al. | Keyword localisation in untranscribed speech using visually grounded speech models | |
CN112183060B (zh) | 多轮对话系统的指代消解方法 | |
CN113360667A (zh) | 基于多任务学习的生物医学触发词检测和命名实体识别方法 | |
CN111859934A (zh) | 一种中文语句隐喻识别系统 | |
CN116562291A (zh) | 一种基于边界检测的中文嵌套命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |