CN113743099A - 基于自注意力机制方面术语提取系统、方法、介质、终端 - Google Patents

基于自注意力机制方面术语提取系统、方法、介质、终端 Download PDF

Info

Publication number
CN113743099A
CN113743099A CN202110949000.6A CN202110949000A CN113743099A CN 113743099 A CN113743099 A CN 113743099A CN 202110949000 A CN202110949000 A CN 202110949000A CN 113743099 A CN113743099 A CN 113743099A
Authority
CN
China
Prior art keywords
word
layer
vector
speech
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110949000.6A
Other languages
English (en)
Other versions
CN113743099B (zh
Inventor
石俊杰
王茜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110949000.6A priority Critical patent/CN113743099B/zh
Publication of CN113743099A publication Critical patent/CN113743099A/zh
Application granted granted Critical
Publication of CN113743099B publication Critical patent/CN113743099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明属于自然语言处理技术领域,公开了一种基于自注意力机制方面术语提取系统、方法、介质、终端,包括:词嵌入层利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;第一BiReGU层对句子每一个单词的前文信息和后文信息进行处理,挖掘上下文信息,计算隐藏状态;单词注意力计算层分配不同的权重,为句子的每个单词生成不同的权重向量,并加权求和得到上下文向量;第二BiReGU层基于得到的权重向量与词嵌入相结合进行全局特征信息的提取;全连接层对提取信息进行处理;CRF层进行方面术语的标记,提取得到相应的方面术语。本发明能够有效、准确的进行方面术语的提取。

Description

基于自注意力机制方面术语提取系统、方法、介质、终端
技术领域
本发明属于自然语言处理技术领域,尤其涉及一种基于自注意力机制方面术语提取系统、方法、介质、终端。
背景技术
目前:方面术语提取(Aspect Term Extraction)作为ABSA的子任务,也是一种特定领域的实体命名识别。例如,“The picture quality of my Motorola camera phone isamazing”中,从方面级情感分析的角度可以看出“picture quality”为方面术语,“amazing”是方面词所对应表达的情感观点词。所以方面术语提取是方面级情感分析中的一个关键问题,情感分析中先要去提取带有情感的方面术语,再根据提取到的方面术语进行情感分析。
通过上述分析,现有技术存在的问题及缺陷为:现有模型方法不能高效的挖掘单词间的隐式关系,导致方面术语提取不完整、不全面,甚至可能提取到了非方面术语词。
解决以上问题及缺陷的难度为:基于已有模型,将词性信息与自注意力机制相结合,找到改善ReGU(Residual gated unit)模型依赖预训练词向量模型作为输入出现的词共现信息不足现象的方法。
解决以上问题及缺陷的意义为:在准确提取到方面术语词之后,可以提高后续方面级情感分析的准确性。
发明内容
针对现有技术存在的问题,本发明提供了一种基于自注意力机制方面术语提取系统、方法、介质、终端。
本发明是这样实现的,一种基于自注意力机制方面术语提取系统,所述基于自注意力机制方面术语提取系统包括:
词嵌入层,用于利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;
第一BiReGU层,用于对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入地训练获得有用的文本特征,并计算隐藏状态;
单词注意力计算层,用于基于计算得到的隐藏状态分配不同的权重,为句子的每个单词生成不同的权重向量,并加权求和得到上下文向量;
第二BiReGU层,用于基于得到的权重向量与词嵌入相结合进行全局特征信息的提取;
全连接层,用于对提取信息进行处理;
CRF层,用于进行方面术语的标记,提取得到相应的方面术语。
本发明的另一目的在于提供一种应用于所述基于自注意力机制方面术语提取系统的基于自注意力机制方面术语提取方法,所述基于自注意力机制方面术语提取方法包括:
首先,利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;同时学习词在内容和词性方面的长期依赖关系;
其次,通过自注意力机制为文本中的每个词语赋予不同的权重;将得到的权重向量再次与词嵌入相结合,学习全局的文本特征表示;
最后,考虑邻居标签之间的相关性,进行全局选择,计算得到每一个单词的标签;用IOB2格式标记句子中的每个单词,提取标签为B、I的单词作为方面术语。
进一步,所述基于自注意力机制方面术语提取系统包括以下步骤:
步骤一,进行文本数据表示形式的转换;并利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量;
步骤二,将得到的词性向量通过第一BiReGU层对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入训练得到有用的文本特征,计算隐藏状态;
步骤三,注意力计算层基于自注意机制根据BiReGU层的输出的隐藏状态分配不同的权重,并为句子的每个单词生成不同的权重向量,同时加权求和得到上下文向量;
步骤四,将将注意力计算层的权输出与词性词向量信息进行拼接,并将拼接结果输入第二BiReGU层,得到全局的特征信息;
步骤五,将第二BiReGU层输出的向量送入全连接层进行处理并通过添加的CRF层得到预测的标签序列Y即对应语句中方面术语的标记,提取得到方面术语。
进一步,步骤一中,所述利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量包括:
输入词嵌入层得到词性词向量的表示形式:将输入句子X划分为n个词,将输入语句表示为
Figure BDA0003217738710000031
其中Xi(1≤i≤n)表示X中第i个词,
Figure BDA0003217738710000032
表示词之间的串联操作;
词Xi相应的采用Glove模型进行预训练,得到词向量
Figure BDA0003217738710000033
Figure BDA0003217738710000034
表示,其中
Figure BDA0003217738710000035
表示训练词向量集,|V|表示词汇表V的大小,d表示词向量维度;
利用词性标注工具得到Xi的词性,用
Figure BDA0003217738710000036
表示,得到每一个词Xi的词性词向量表示为
Figure BDA0003217738710000037
进一步,步骤二中,所述隐藏状态计算公式如下:
Figure BDA0003217738710000038
其中,ht表示t时刻隐藏状态,
Figure BDA0003217738710000039
表示前向ReGU的隐藏状态输出结果,
Figure BDA00032177387100000310
表示后向ReGU的隐藏状态输出结果。
进一步,步骤三中,所述权重、权重向量、上下文向量计算公式如下:
h=tanh(Wth'+Wnhn);
Figure BDA0003217738710000041
Figure BDA0003217738710000042
et=Vttanh(Waht+ba);
其中,Wt、Wn、Wa均表示二维权重矩阵,ba表示偏置向量,αt表示第t个位置注输出的注意力权重,et表示计算注意力的分配,h'表示利用注意力向量αt加权平均后得到的向量。
进一步,步骤五中,所述CRF层计算概率如下:
Figure BDA0003217738710000043
Figure BDA0003217738710000044
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明在传统BiLSTM的基础上使用了双嵌入机制和ReGU(Residual Gated Unit)作为模型辅助信息。同时考虑到单词之间的语法关系,比如方面词通常是与形容词相关联的等等,引入自注意力机制挖掘单词之间的依赖关系。并且为了更好的识别多个单词构成的方面术语,引入了词性标记并建模,充分考虑到文本序列中不同单词的重要性和文本特征。取得了较好的效果。本发明能够有效、准确的进行方面术语的提取。
附图说明
图1是本发明实施例提供的基于自注意力机制方面术语提取系统示意图。
图2是本发明实施例提供的BiLSTM框架示意图。
图3是本发明实施例提供的BA模型框架示意图。
图4是本发明实施例提供的基于双层BiReGU方面术语提取模型示意图。
图5是本发明实施例提供的IOB2标注法示意图。
图6是本发明实施例提供的ReGU模型示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于自注意力机制方面术语提取系统、方法、介质、终端,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的基于自注意力机制方面术语提取系统包括:
词嵌入层,用于利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;
第一BiReGU层,用于对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入地训练获得有用的文本特征,并计算隐藏状态;
单词注意力计算层,用于基于计算得到的隐藏状态分配不同的权重,为句子的每个单词生成不同的权重向量,并加权求和得到上下文向量;
第二BiReGU层,用于基于得到的权重向量与词嵌入相结合进行全局特征信息的提取;
全连接层,用于对提取信息进行处理;
CRF层,用于进行方面术语的标记,提取得到相应的方面术语。
本发明实施例提供的基于自注意力机制方面术语提取方法包括:
首先,利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;同时学习词在内容和词性方面的长期依赖关系;
其次,通过自注意力机制为文本中的每个词语赋予不同的权重;将得到的权重向量再次与词嵌入相结合,学习全局的文本特征表示;
最后,考虑邻居标签之间的相关性,进行全局选择,计算得到每一个单词的标签;用IOB2格式标记句子中的每个单词,提取标签为B、I的单词作为方面术语。
本发明实施例提供的基于自注意力机制方面术语提取方法的流程包括以下步骤:
S101,进行文本数据表示形式的转换;并利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量;
S102,将得到的词性向量通过第一BiReGU层对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入训练得到有用的文本特征,计算隐藏状态;
S103,注意力计算层基于自注意机制根据BiReGU层的输出的隐藏状态分配不同的权重,并为句子的每个单词生成不同的权重向量,同时加权求和得到上下文向量;
S104,将将注意力计算层的权输出与词性词向量信息进行拼接,并将拼接结果输入第二BiReGU层,得到全局的特征信息;
S105,将第二BiReGU层输出的向量送入全连接层进行处理并通过添加的CRF层得到预测的标签序列Y即对应语句中方面术语的标记,提取得到方面术语。
本发明实施例提供的利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量包括:
输入词嵌入层得到词性词向量的表示形式:将输入句子X划分为n个词,将输入语句表示为
Figure BDA0003217738710000061
其中Xi(1≤i≤n)表示X中第i个词,
Figure BDA0003217738710000062
表示词之间的串联操作;
词Xi相应的采用Glove模型进行预训练,得到词向量
Figure BDA0003217738710000071
Figure BDA0003217738710000072
表示,其中
Figure BDA0003217738710000073
表示训练词向量集,|V|表示词汇表V的大小,d表示词向量维度;
利用词性标注工具得到Xi的词性,用
Figure BDA0003217738710000074
表示,得到每一个词Xi的词性词向量表示为
Figure BDA0003217738710000075
本发明实施例提供的隐藏状态计算公式如下:
Figure BDA0003217738710000076
其中,ht表示t时刻隐藏状态,
Figure BDA0003217738710000077
表示前向ReGU的隐藏状态输出结果,
Figure BDA0003217738710000078
表示后向ReGU的隐藏状态输出结果。
本发明实施例提供的权重、权重向量、上下文向量计算公式如下:
h=tanh(Wth'+Wnhn);
Figure BDA0003217738710000079
Figure BDA00032177387100000710
et=Vttanh(Waht+ba);
其中,Wt、Wn、Wa均表示二维权重矩阵,ba表示偏置向量,αt表示第t个位置注输出的注意力权重,et表示计算注意力的分配,h'表示利用注意力向量αt加权平均后得到的向量。
本发明实施例提供的CRF层计算概率如下:
Figure BDA00032177387100000711
Figure BDA00032177387100000712
下面结合具体实施例对本发明的技术方案做进一步说明。
实施例1:
1、本发明基于双向长短期记忆网络的特征提取模型
基于双向长短期网络的特征提取模型BA(BiLSTM-Attention),是本发明提出的第一个基线模型。模型不使用位置向量,利用双向长短期记忆网络以及注意力机制来获取句子中的重要信息。只关注对分类有决定性影响的词语,将提取出的句子级特征向量用于关系分类。
目前自然语言处理任务为了得到句子级别的特征,通常是将词语或者短语通过模型向量化表示,对词向量进行操作得到句子的向量表示。一般句子序列W={w1,w2,w3}计算的概率如公式1所示:
Figure BDA0003217738710000081
传统的句子向量的表示往往采用取平均向量法、向量相加法或者通过语法规则分析等方法。这些方法都存在一个很明显的问题,得到的句子向量没有考虑到特征提取过程中词语的影响,词语彼此出现的前后顺序以及规则的限制会对句子产生很大的影响。通过BiLSTM提取特征捕获语义依赖。充分考虑到过去信息和未来信息对当前信息的影响。所以BA模型在神经网络层选择使用BiLSTM进行特征提取。
BiLSTM模型就是对两个不同方向上的LSTM进行计算,最终将两个不同方向的隐藏层计算结果合并输出。关于LSTM的知识已在上一章节中的介绍,BiLSTM在单向LSTM中扩展加入第二层LSTM,新添加的层次以相反的时间顺序流动。所以,该模型能够利用过去和未来的信息。如图2所示。
该网络包含了两个用于左右顺序上下文的子网络,分别向前和向后传递,这里使用元素求和来组合前进和向后传递输出。
前向LSTM的计算如公式2所示:
Figure BDA0003217738710000091
即前面的词会影响到后面词预测的概率。
后向LSTM中则相反,后面的词会影响前面的生成。如公式3所示:
Figure BDA0003217738710000092
Figure BDA0003217738710000093
表示i时刻前向长短期记忆网络的输出,用
Figure BDA0003217738710000094
表示i时刻后向长短期记忆网络的输出,则BLSTM在该时刻的输出如下式4所示:
Figure BDA0003217738710000095
双向LSTM的极大似然函数公式如公式5所示:
Figure BDA0003217738710000096
其中θx、θS、θLSTM,依次代表了单词、softmax和LSTM的参数,θS和θx在前后的过程中共享。
BA模型的框架如图3所示。
从上图可以看到BA模型结构主要由五部分构成。输入层就是对该模型输入要进行方面词提取的输入句,输入后通过嵌入层将单词映射为词向量;之后神经网络层利用BiLSTM从单词向量中获得高级特性,获得每个词更深层次的语义向量表达,并通过注意力层利用权重产生句子级特征向量。通过将得到的权重向量和神经网络层隐藏状态相乘求和,进而得到句子级别的特征,最后通过句子级特征向量进行关系分类。
将BiLSTM中最后一个时序的输出作为特征向量,记为H。让H成为一个由LSTM产生的输出的隐藏向量[h1,h2,…,hT]构成的矩阵,H中元素都是前后向隐藏单元输出的串联。如公式6所示:
Figure BDA0003217738710000101
随后模型将获得的隐藏状态序列,输入注意力层,注意力机制通过注意力描述目标输出与原输入数据之间的依赖关系,通过将计算的权重加和得到句子向量表示。随后通过softmax分类器预测句子标签Y。在实验中,加上attention层对结果有明显的提升。通过该模型进而了解双向嵌入机制特征提取以及自注意力机制的特征提取。
2、本发明基于自注意力的双层BiReGU模型
2.1基于双层BiReGU的方面术语提取模型
为了更深层次的提取向量,模型采用了基于注意力机制的双层BiReGU模型,在传统的BiLSTM模型的基础上,引入双嵌入机制和Residual Gated Unit(ReGU)作为辅助,以提高特征提取的能力。
模型使用BiReGU学习文本特征表示,更好地捕捉词语间的长期依赖关系;然后在第一层BiReGU之后加入注意力机制,给句子中每个单词添加不同的权重,得到融合后新的句子特征表示,再输入到第二层BiReGU中学习更加全局的文本特征表示,最后进行方面术语的标注,完成提取方面术语的任务。注意力机制和BiReGU模型的使用,充分考虑到文本序列中不同单词的重要性和文本特征,更好地对输出序列进行编码和捕捉标签间的长期依赖关系。因为BiReGU网络层的存在,模型可以获取过去和未来的特征;因为CRF网络层的存在,该模型可以使用句子级的标注信息。该网络结构把上下文信息输入神经网络模型中,不仅能够更好地捕捉到标签之间的长期依赖关系,而且还能更好的获取文本的特征。它还使用注意力机制来发现文本中的重要信息,自动学习输入文本序列的相对重要的单词。模型如图4所示。
本发明采用IOB2序列标注方式定义序列的标签。对句子中的单词进行打标签操作。序列标注(Sequence labeling)作为NLP中常用技术之一,多用于对句子等单词进行标注,来提取地点、术语等有效信息。序列标注主要包括原始标注和联合标注两种类型。前者是需要将每个单词标注为一个标签,后者是将所有的实体词标注为同样的标签。例如,句子“Tomorrow,Tom Bush mark a date”中的命名实体“Tom Bush”。对其标注应该得到一个完整的“名字”标签,而不是像前者进行分别标注。一般处理联合标注问多是转化为原始标注解决。标准做法就是使用IOB2标注。IOB2标注法如图5所示,B代表标签词的开始,I代表标签词的其余标记,O代表了非标签词句。通过B、I、O三种标记将句子标注不同的标签,这样能够很简单的根据序列标注结果直接得到单词的角色标注结果。
首先将文本数据表示成深度学习模型所能处理的那种形式,将输入序列表示为W={x1,x2,...,xn},n为输入文本序列的单词个数。该模型采用双嵌入机制,将Glove词向量嵌入G(xi)和特定域词向量嵌入G(xi)进行拼接,将单词向量化,得到一个词向量矩阵E={e1,e2,...,en},其中ei表示第i个词语代表的词向量,维度为
Figure BDA0003217738710000111
在之前的特征提取中,每一层选择利用双向的LSTM神经网络对前后文信息进行处理,充分挖掘句子的上下文信息。这里在BiLSTM结构的基础上引入ReGU结构。将原LSTM结构替换为ReGU结构,同样也拥有两个方向的表示。ReGU通过两个门ft和Ot来控制输入和隐藏状态信息的流动,其中Ot可以控制将上一层信息输入到下一层,更深入地训练和获得有用的文本特征。ReGU结构图如图6所示。
可以看到,在时间t下前一个记忆单元ct-1的输入xt以及新的记忆单元ct是通过以下公式7计算得到的:
ct=(1-ft)·ct-1+ft·tanh(wixt) (7)
新的隐藏状态计算如公式8所示:
Figure BDA0003217738710000112
其中是ft=σ(wf·[ht-1,xt]+bf)遗忘门,ot=σ(wo·[ht-1,xt]+bo)是残余门,
Figure BDA0003217738710000121
是xt还是tanh(wixt)根据xt大小是否等于ct决定。
与双层BiLSTM结构一样,构建出的双层BiReGU网络模型,同样利用每一层的双向ReGU结构挖掘输入序列的上下文信息。词向量W={h1,h2,...,hn}输入到第一层BiReGU后,BiReGU中前向ReGU和后向ReGU在时刻t的输入处理分别为公式9~10所示:
Figure BDA0003217738710000122
Figure BDA0003217738710000123
其中,在t时刻,
Figure BDA0003217738710000124
是前向ReGU的隐藏状态输出结果,
Figure BDA0003217738710000125
是后向ReGU的隐藏状态输出结果。Ht表示为t时刻的隐藏状态输出结果,如下公式11所示:
Figure BDA0003217738710000126
考虑到这种双层BiReGU网络结构没有考虑到不同单词的重要性,所以本发明通过注意力计算层计算每个单词的重要程度。注意力机制的计算依然采用attention机制计算,公式如12~14所示:
M=tanh(ht) (12)
α=softmax(wTM) (13)
r=HαT (14)
其中,w是一个经过训练的参数向量,r代表了句子的表示。考虑到单层BiReGU不能获取到更加全局的特征信息,故使用了双层BiReGU,将单词注意力计算层的输出作为第二层BiReGU层的输入,来获取更加全局的特征信息。为了生成最终的方面词术语标记,模型使用CRF代替softmax分类器作为最后一层,可以提高标注之间高度依赖的性能。
CRF(Conditional Random Field)也称作条件随机场方法。通过输入序列向量,计算条件概率的分布。方法多用在词性标注、实体命名识以及句法分析等领域。CRF概率的计算如公式15所示:
Figure BDA0003217738710000131
训练过程中使用最大条件似然估计,计算如公式16所示:
Figure BDA0003217738710000132
最后的标注结果以最高的条件概率生成,如公式17所示:
Figure BDA0003217738710000133
通过模型实验有效的证明了ReGU模块在方面术语提取的有效性。
2.2自注意力机制模型
自注意力机制(self-Attention)能够忽略句中各词彼此的距离,捕获句子中的内部结构,得到词彼此之间的依赖关系。注意力机制在第二章中已有介绍,在自注意力机制中模型通常是通过自己进行训练不断的调节参数。即设为K=V=Q,将输入序列看做一组键值对(K,V)以及查询Q,自注意力机制会自动计算句中单词与其他单词的注意力权重。
计算方式如18所示。
Figure BDA0003217738710000134
其中X∈Rn代表输入向量矩阵,dk为矩阵的维度,防止出现X·XT的内积过大造成softmax出现极端数值的现象。K,V的关系是一一对应的,通过Q中每个元素K中各个元素求内积再通过softmax计算,最后进行加权求和,得到一个新的向量。本发明可以利用注意力机制处理变长的信息序列。在给出的句子中,寻找不同词之间的关系。
总体来说,自注意力机制单词通过和所有词做注意力计算,使得单词之间拥有全局语义信息。本发明可以通过自注意力机制处理任意的信息序列,增强句中单词彼此间的联系,防止距离过远权值降低。
2.3 SA-BiReGU网络结构
基于前面对BiReGU和自注意力机制的研究,本发明提出了基于自注意力机制的BiReGU方面术语提取模型。同时考虑到之前句子的输入没有考虑词的词性信息这一问题,且句子中存在的大多数方面术语都是与一个或多个形容词相关联的名词,因此在模型中加入了词性标记帮助识别方面术语,使得输入的词向量表达出更加丰富的语义信息。随后输入ReGU模块学习词在内容和词性方面的长期依赖关系。再通过自注意力机制防止句子长远上下文信息的丢失,为文本中的每个词语赋予不同的权重。将得到的权重向量再次与词嵌入相结合,输入到第二层BiReGU中,学习更加全局的文本特征表示。最后放入CRF层考虑邻居标签之间的相关性,做出全局选择,计算得到每一个单词的标签。句子中的每个单词用IOB2格式标记,提取出标签为B、I的单词作为方面术语,完成术语提取。
首先本发明应该将文本数据表示成深度学习模型所能处理的那种形式。利用预训练模型得到词向量,再通过词性标注模型确定词性向量。输入嵌入层得到词性词向量的表示形式。假设输入句子X共包含n个词,将输入语句表示为
Figure BDA0003217738710000141
其中Xi(1≤i≤n)为X中第i个词,
Figure BDA0003217738710000142
为词之间的串联操作。词Xi相应的采用Glove模型进行预训练,得到词向量
Figure BDA0003217738710000143
Figure BDA0003217738710000144
表示,其中假设
Figure BDA0003217738710000145
为训练词向量集,|V|为词汇表V的大小,d为词向量维度。利用词性标注工具得到Xi的词性,用
Figure BDA0003217738710000146
表示。则每一个词Xi的词性词向量表示为
Figure BDA0003217738710000147
随后将得到的输入向量通过BiReGU层对句子每一个单词的前文信息和后文信息进行处理,充分挖掘输入序列的上下文信息,深入地训练获得有用的文本特征,计算出隐藏状态ht,公式如之前介绍的式11所示。
自注意机制根据BiReGU层的输出向量ht分配不同的权重,以此为句子的每个单词生成不同的权重向量,并加权求和得到上下文向量。计算公式如式19~22所示:
h=tanh(Wth'+Wnhn) (19)
Figure BDA0003217738710000151
Figure BDA0003217738710000152
et=Vttanh(Waht+ba) (22)
其中,Wt、Wn、Wa均为二维权重矩阵,ba为偏置向量,αt表示第t个位置注输出的注意力权重,et计算注意力的分配,进一步提取特征,h'为利用注意力向量αt加权平均后得到的向量。考虑到单层BiReGU不能获取到更加全局的特征信息,故将注意力计算层的输出与之前模型输入的词性词向量信息进行拼接得到
Figure BDA0003217738710000153
并输入到BiReGU层中,公式如之前介绍的式11所示,来获得更加全局的特征信息。
在又一次通过BiReGU层获取特征信息后,将向量送入全连接层进行处理并通过添加的CRF层得到预测的标签序列Y,计算概率如式23~24所示:
Figure BDA0003217738710000154
Figure BDA0003217738710000155
CRF考虑了邻居标签之间的相关性,做出全局选择,而不是独立解码每个标签,以在给定输入句子的情况下最大化句子标签的条件概率,得到标签序列,即对应语句中方面术语的标记,最终提取出需要的方面术语。
下面结合实验对本发明的技术效果作详细的描述。
本发明通过对提出的模型进行试验,将实验结果与其他同类方法基于同样的数据集进行对比分析。
1实验环境及数据集
本发明实验使用python语言和pytorch框架设计实验。Pytorch框架主要通过GPU加速神经网络训练模型。相比于TensorFlow适用于跨平台或嵌入式部署的特点,pytorch框架更有利于小规模项目快速实现原型,受到越来越多的欢迎。
采用的物理设备及环境如下表1所示:
表1实验环境
环境 设备型号
CPU Intel Core7700HQ睿频3.8GHz
显卡 4块NVIDIA GeForce GTX1080Ti
内存 12GB DDR4 2400MHz
操作系统 Ubuntu16.04LTS
开发环境 PyCharm
本发明实验所选择的训练数据集是SemEval 2014任务中的Laptop和Restaurant数据集,以及SemEval 2016的Restaurant数据集中的Subtask 2。数据集主要针对产品评论及餐饮领域用户评论进行收集分析。同时这两个数据集都使用IOB2标签进行了标记。不同数据集所含数据以及方面术语的数量如下:
表2数据集统计信息
Figure BDA0003217738710000161
数据通过xml标记形式存储。数据集提供了对方面术语、方面类别和情感极性的分类标签。同时数据集还对食物、服务、价格、氛围和其他五种方面类别,以及对应的消极、中立、积极和矛盾四种情感极性。
2评估指标
本发明实验为更好地与其他方面术语提取模型进行比较,采用F1值(F1-score)作为评价指标,根据测试集得到的实际数据评估模型。F1值作为一个取值在0到1之间的评估二分类模型指标,它包含精确率(Precious)以及召回率(Recall)两种度量指标。这些指标可以通过下表3给出的混淆矩阵计算得出:
表3混淆矩阵
Positive(Actual) Negative(Actual)
Positive(Predicted) True Positive(TP) False Positive(FP)
Negative(Predicted) False Negative(FN) True Negative(TN)
表中内容通过公式25定义所示:
Figure BDA0003217738710000171
精确率(P)指的是正确预测出结果为正的样本数量在预测结果为正的样本中的百分比,召回率(R)则为正确预测出结果为正的样本数量在样本实际为正的数量中的百分比。计算公式如下式26所示:
Figure BDA0003217738710000172
综上,可以得到F1值的计算,如公式3.27所示:
Figure BDA0003217738710000173
3实验参数和结果分析
①实验参数设置
SA-BiReGU模型使用预训练的Glove词向量模型得到词嵌入向量并对此初始化。并且模型使用由Stanford POS tagger[60]生成的POS标签进行注释。数据集共有41种不同类型的POS标签且实验使用了所有现有的POS标签,让模型在训练阶段选择与其相关的那些标签。在LSTM上以0.01的学习率进行训练,同时设置dropout为0.2,batch_size为64,并选择Adam作为优化器,实验最后随机抽取了10%的数据集进行验证,对F1值进行计算。
Adam算法作为一种自适应学习算法,应用广泛。其收敛速度快,调参少,非常适合使用大数据集等的实验中。算法的计算过程如下所示:
Figure BDA0003217738710000181
②实验结果和分析
下面将对本发明的对比模型进行简要介绍:
CRF-1:仅通过最基础的条件随机场提取方面术语
CEF-2:在基础的条件随机场上加入词嵌入向量提取术语
BLSTM-CRF:使用经过预训练的词向量的双向LSTM提取特征
IHS_RD:SemEval-2014笔记本领域的获胜方案
Li:考虑到序列标注前一时刻的对当前预测的影响提取术语
DE-CNN:使用通用和特定于领域的预训练词嵌入的CNN模型提取术语
7)BiReGU-CRF:使用双层ReGU以及注意力机制提取术语
8)WDEmb:通过方面词和上下计算单词的权重位置信息输入CRF提取术语
本发明模型通过实验将得到的结果与其他基准模型进行对比,如下表4所示:
表4不同模型F1值对比试验结果
Figure BDA0003217738710000191
其中,“-”用来表示该模型没有采用该数据集进行试验,表中结果同时对本发明模型名称和模型在不同数据集取得的最好结果用粗体表示。
由表4可以看出本发明提出的方法同其他方法相比基本都取得了很好的效果,只有在SemEval-2016餐厅领域数据集上,模型表现效果仅差于DE-CNN。与提出方法相比,DE-CNN词嵌入使用了双嵌入向量结合,通过领域词嵌入和通用词嵌入进行特征提取。领域词嵌入有利于在特定领域能更好的挖掘方面词之间的关系,而对于其他领域不会有很好的效果,本发明模型加入词性词向量,和特定领域词嵌入相比,词性标注更为方便。特定领域词嵌入需要人工标记特定领域数据,适用范围较小。所以仅在一些特定领域,有利于DE-CNN模型的发挥。
由表4可以看到,CRF-1模型效果差于CRF-2,主要是CRF-1中模型提取特征能力不行,CRF-2可以到词向量的加入带来了非常好的效果。同样WDEmb因为加入了上下文向量特征,使得CRF输入特征变多,所以分类效果会好于CRF-2。根据这三个模型可以看出词嵌入对于方面术语提取的有效性。BiReGU-CRF效果优于BLSTM-CRF,进一步证明BiReGU相对于BLSTM有一定的效果提升。同时BLSTM-CRF和WDEmb在特征提取模型的基础上都增加了CRF,能够更好的获取网络中不同单词的依赖关系,所以模型效果好于仅基于预训练词向量的双向LSTM模型。BiReGU-CRF与本发明提出的模型相比,后者表现更好,通过对词嵌入以及注意力机制的改进,证明能够更深层次的挖掘出方面术语的关系,提取更高级的特征。总之,本发明模型能够取得不错的效果,主要是因为引入了POS标签,加入词性此词向量信息,通过自注意力机制进一步挖掘方面术语之间的隐藏关系建模特征,通过实验证明了方法的有效性。
在与相关的其他模型比较后,为了探究引入的模块的有效性,对此进行消融实验对比。基于SA-BiReGU模型评估了三种不同的模型,以研究加入词性标签功能的重要性以及使用自注意机制对词位置的学习的影响,如下表5所示:
表5消融实验结果
Figure BDA0003217738710000201
Figure BDA0003217738710000211
根据表5所示的结果,可以看到加入词性标签功能和自注意机制对于提高F1值,以及提高句子中识别方面术语的模型能力都很重要。通过上述实验结果可以看到,本发明提出的模型能够取得不错的效果。
本发明基于自注意力的方面术语提取模型。首先分析了目前主流的方面术语提取模型的特点及存在的问题,接着提出了基于自注意力的方面术语提取模型SA-BiReGU,最后对比试验证明了方法模型的有效性。
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于自注意力机制方面术语提取系统,其特征在于,所述基于自注意力机制方面术语提取系统包括:
词嵌入层,用于利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;
第一BiReGU层,用于对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入地训练获得有用的文本特征,并计算隐藏状态;
单词注意力计算层,用于基于计算得到的隐藏状态分配不同的权重,为句子的每个单词生成不同的权重向量,并加权求和得到上下文向量;
第二BiReGU层,用于基于得到的权重向量与词嵌入相结合进行全局特征信息的提取;
全连接层,用于对提取信息进行处理;
CRF层,用于进行方面术语的标记,提取得到相应的方面术语。
2.一种运行权利要求1所述基于自注意力机制方面术语提取系统的基于自注意力机制方面术语提取方法,其特征在于,所述基于自注意力机制方面术语提取方法包括:
首先,利用词性标注工具进行语句中各个单词的词性,并输出句中每一个词的词性词向量表示;同时学习词在内容和词性方面的长期依赖关系;
其次,通过自注意力机制为文本中的每个词语赋予不同的权重;将得到的权重向量再次与词嵌入相结合,学习全局的文本特征表示;
最后,考虑邻居标签之间的相关性,进行全局选择,计算得到每一个单词的标签;用IOB2格式标记句子中的每个单词,提取标签为B、I的单词作为方面术语。
3.如权利要求2所述基于自注意力机制方面术语提取方法,其特征在于,所述基于自注意力机制方面术语提取系统包括以下步骤:
步骤一,进行文本数据表示形式的转换;并利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量;
步骤二,将得到的词性向量通过第一BiReGU层对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入训练得到有用的文本特征,计算隐藏状态;
步骤三,注意力计算层基于自注意机制根据BiReGU层的输出的隐藏状态分配不同的权重,并为句子的每个单词生成不同的权重向量,同时加权求和得到上下文向量;
步骤四,将注意力计算层的权输出与词性词向量信息进行拼接,并将拼接结果输入第二BiReGU层,得到全局的特征信息;
步骤五,将第二BiReGU层输出的向量送入全连接层进行处理并通过添加的CRF层得到预测的标签序列Y即对应语句中方面术语的标记,提取得到方面术语。
4.如权利要求3所述基于自注意力机制方面术语提取方法,其特征在于,步骤一中,所述利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量包括:
输入词嵌入层得到词性词向量的表示形式:将输入句子X划分为n个词,将输入语句表示为
Figure FDA0003217738700000021
其中Xi(1≤i≤n)表示X中第i个词,
Figure FDA0003217738700000022
表示词之间的串联操作;
词Xi相应的采用Glove模型进行预训练,得到词向量
Figure FDA0003217738700000023
Figure FDA0003217738700000024
表示,其中
Figure FDA0003217738700000025
表示训练词向量集,|V|表示词汇表V的大小,d表示词向量维度;
利用词性标注工具得到Xi的词性,用
Figure FDA0003217738700000026
表示,得到每一个词Xi的词性词向量表示为
Figure FDA0003217738700000027
5.如权利要求3所述基于自注意力机制方面术语提取方法,其特征在于,步骤二中,所述隐藏状态计算公式如下:
Figure FDA0003217738700000031
其中,ht表示t时刻隐藏状态,
Figure FDA0003217738700000032
表示前向ReGU的隐藏状态输出结果,
Figure FDA0003217738700000033
表示后向ReGU的隐藏状态输出结果。
6.如权利要求3所述基于自注意力机制方面术语提取方法,其特征在于,步骤三中,所述权重、权重向量、上下文向量计算公式如下:
h=tanh(Wth'+Wnhn);
Figure FDA0003217738700000034
Figure FDA0003217738700000035
et=Vttanh(Waht+ba);
其中,Wt、Wn、Wa均表示二维权重矩阵,ba表示偏置向量,αt表示第t个位置注输出的注意力权重,et表示计算注意力的分配,h'表示利用注意力向量αt加权平均后得到的向量。
7.如权利要求3所述基于自注意力机制方面术语提取方法,其特征在于,步骤五中,所述CRF层计算概率如下:
Figure FDA0003217738700000036
Figure FDA0003217738700000037
8.一种接收用户输入程序存储介质,所存储的计算机程序使电子设备执行权利要求2-7任意一项所述基于自注意力机制方面术语提取方法,包括下列步骤:
步骤一,进行文本数据表示形式的转换;并利用词嵌入层预训练模型得到词向量,再通过词性标注模型确定词性向量;
步骤二,将得到的词性向量通过第一BiReGU层对句子每一个单词的前文信息和后文信息进行处理,挖掘输入序列的上下文信息,深入训练得到有用的文本特征,计算隐藏状态;
步骤三,注意力计算层基于自注意机制根据BiReGU层的输出的隐藏状态分配不同的权重,并为句子的每个单词生成不同的权重向量,同时加权求和得到上下文向量;
步骤四,将将注意力计算层的权输出与词性词向量信息进行拼接,并将拼接结果输入第二BiReGU层,得到全局的特征信息;
步骤五,将第二BiReGU层输出的向量送入全连接层进行处理并通过添加的CRF层得到预测的标签序列Y即对应语句中方面术语的标记,提取得到方面术语。
9.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求2-7任意一项所述基于自注意力机制方面术语提取方法。
10.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现如权利要求2-7任意一项所述基于自注意力机制方面术语提取方法。
CN202110949000.6A 2021-08-18 2021-08-18 基于自注意力机制方面术语提取系统、方法、介质、终端 Active CN113743099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110949000.6A CN113743099B (zh) 2021-08-18 2021-08-18 基于自注意力机制方面术语提取系统、方法、介质、终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110949000.6A CN113743099B (zh) 2021-08-18 2021-08-18 基于自注意力机制方面术语提取系统、方法、介质、终端

Publications (2)

Publication Number Publication Date
CN113743099A true CN113743099A (zh) 2021-12-03
CN113743099B CN113743099B (zh) 2023-10-13

Family

ID=78731605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110949000.6A Active CN113743099B (zh) 2021-08-18 2021-08-18 基于自注意力机制方面术语提取系统、方法、介质、终端

Country Status (1)

Country Link
CN (1) CN113743099B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115510193A (zh) * 2022-10-10 2022-12-23 北京百度网讯科技有限公司 查询结果向量化方法、查询结果确定方法及相关装置
CN116562305A (zh) * 2023-07-10 2023-08-08 江西财经大学 方面情感四元组预测方法与系统
CN117131182A (zh) * 2023-10-26 2023-11-28 江西拓世智能科技股份有限公司 一种基于ai的对话回复生成方法及系统
CN117421733A (zh) * 2023-12-19 2024-01-19 浪潮电子信息产业股份有限公司 勒索病毒检测方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807084A (zh) * 2019-05-15 2020-02-18 北京信息科技大学 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法
US20200342056A1 (en) * 2019-04-26 2020-10-29 Tencent America LLC Method and apparatus for natural language processing of medical text in chinese
CN112800776A (zh) * 2021-03-10 2021-05-14 湖北工业大学 双向gru关系抽取数据处理方法、系统、终端、介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200342056A1 (en) * 2019-04-26 2020-10-29 Tencent America LLC Method and apparatus for natural language processing of medical text in chinese
CN110807084A (zh) * 2019-05-15 2020-02-18 北京信息科技大学 一种基于注意力机制的Bi-LSTM和关键词策略的专利术语关系抽取方法
CN112800776A (zh) * 2021-03-10 2021-05-14 湖北工业大学 双向gru关系抽取数据处理方法、系统、终端、介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵丽华等: "基于注意力双层BiReGU模型的方面术语提取方法", 《计算机工程与应用》, vol. 57, no. 22, pages 160 - 165 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115510193A (zh) * 2022-10-10 2022-12-23 北京百度网讯科技有限公司 查询结果向量化方法、查询结果确定方法及相关装置
CN115510193B (zh) * 2022-10-10 2024-04-16 北京百度网讯科技有限公司 查询结果向量化方法、查询结果确定方法及相关装置
CN116562305A (zh) * 2023-07-10 2023-08-08 江西财经大学 方面情感四元组预测方法与系统
CN116562305B (zh) * 2023-07-10 2023-09-12 江西财经大学 方面情感四元组预测方法与系统
CN117131182A (zh) * 2023-10-26 2023-11-28 江西拓世智能科技股份有限公司 一种基于ai的对话回复生成方法及系统
CN117421733A (zh) * 2023-12-19 2024-01-19 浪潮电子信息产业股份有限公司 勒索病毒检测方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN113743099B (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
US11354506B2 (en) Coreference-aware representation learning for neural named entity recognition
Luan et al. Scientific information extraction with semi-supervised neural tagging
CN113743099B (zh) 基于自注意力机制方面术语提取系统、方法、介质、终端
CN111611810B (zh) 一种多音字读音消歧装置及方法
CN111062217B (zh) 语言信息的处理方法、装置、存储介质及电子设备
CN111666758B (zh) 中文分词方法、训练设备以及计算机可读存储介质
CN114548101B (zh) 基于可回溯序列生成方法的事件检测方法和系统
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
CN115357719B (zh) 基于改进bert模型的电力审计文本分类方法及装置
CN117076653A (zh) 基于思维链及可视化提升上下文学习知识库问答方法
Kim et al. Construction of machine-labeled data for improving named entity recognition by transfer learning
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN114781375A (zh) 一种基于bert与注意力机制的军事装备关系抽取方法
CN111695335A (zh) 一种智能面试方法、装置及终端设备
CN115238691A (zh) 基于知识融合的嵌入的多意图识别与槽位填充模型
CN112036186A (zh) 语料标注方法、装置、计算机存储介质及电子设备
CN113705207A (zh) 语法错误识别方法及装置
CN112183062A (zh) 一种基于交替解码的口语理解方法、电子设备和存储介质
Ji et al. A short text similarity calculation method combining semantic and headword attention mechanism
CN116362242A (zh) 一种小样本槽值提取方法、装置、设备及存储介质
CN115600597A (zh) 基于注意力机制和词内语义融合的命名实体识别方法、装置、系统及存储介质
CN113012685B (zh) 音频识别方法、装置、电子设备及存储介质
CN115391534A (zh) 文本情感原因识别方法、系统、设备及存储介质
Wang et al. A stack-propagation framework with slot filling for multi-domain dialogue state tracking
CN114417891A (zh) 基于粗糙语义的回复语句确定方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant