CN111813924B - 基于可扩展动态选择与注意力机制的类别检测算法及系统 - Google Patents

基于可扩展动态选择与注意力机制的类别检测算法及系统 Download PDF

Info

Publication number
CN111813924B
CN111813924B CN202010659504.XA CN202010659504A CN111813924B CN 111813924 B CN111813924 B CN 111813924B CN 202010659504 A CN202010659504 A CN 202010659504A CN 111813924 B CN111813924 B CN 111813924B
Authority
CN
China
Prior art keywords
sentence
layer
lstm
vector
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010659504.XA
Other languages
English (en)
Other versions
CN111813924A (zh
Inventor
琚生根
曹万平
王婧妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202010659504.XA priority Critical patent/CN111813924B/zh
Publication of CN111813924A publication Critical patent/CN111813924A/zh
Application granted granted Critical
Publication of CN111813924B publication Critical patent/CN111813924B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于可扩展动态选择与注意力机制的类别检测方法与系统,方法包括以下步骤:将摘要中的单个句子通过双通道融合预训练语言模型ELMo与Bi‑LSTM,分别得到第一句向量、第二句向量;通过动态选择机制筛选保留第一句向量、第二句向量中的一个设为主句向量;将摘要中所有单个句子对应的主句向量组成摘要向量序列并通过注意力网络进行加权;经注意力网络加权后的输出进入层连Bi‑LSTM网络,单个主句向量匹配上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;采用CRF对所有单个句子对应的文本生成概率进行优化表示形成标签概率序列。该方法能避免信息重复,同时,加入基于注意力的网络,解决现有类别检测方法中语义空洞问题。

Description

基于可扩展动态选择与注意力机制的类别检测算法及系统
技术领域
本发明属于医学文本摘要信息化处理技术领域,具体涉及一种基于可扩展动态选择与注意力机制的类别检测算法及系统。
背景技术
循证医学(Evidence-Based Medicine,EBM)是一种临床实践方法,其作为一种流行的医学研究范式,使用当前的最佳证据来辅助医疗决策;在循证医学中,搜寻医学证据是最为关键的一个环节,医学证据主要存在于医学文献或医学指南中,但是大部分文献和指南都是以无结构化的形式呈现,这为医生搜寻最佳证据带来了困扰,故为方便医生快速找到医学证据,需要将文献按照某种医学模式进行结构化表示,即类别检测。
近几年,面向循证医学领域的类别检测研究得到了发展,研究者多着眼于以自动化的形式寻找临床证据,主要采用机器学习的方法对文献根据PICO或类似模式进行划分,有利于更高效地鉴别高质量文献和筛选最佳证据。对于文献的处理,大多以词粒度和句粒度代替文档粒度,或以多者结合的方式,因医学领域的独特性,其规则制定与语义分析成为了研究难点;且又因自然语言的多样性,如何正确对序列进行建模和分析语义是句子分类任务面临的重大困难。
现有方法大多忽略了上下文信息和句子之间的依赖关系,或是会出现信息重复问题,并且在较长文本中会出现语义“空洞”问题,比如,Wang等人在其论文“A categorydetection method for Evidence-based Medicine”中提出采用双通道层连网络(HMcN)进行类别检测,HMcN在进行类别检测时融入摘要文本的上下文信息,考虑了医学文本的特殊性,但这种方法会产生信息重复问题,且无法解决长文本的语义“空洞”问题,即当前句子的相邻语句发生了主题偏移,相关语义信息存在于更早之前的语句中;Jin等人最先将深度学习用于循证医学类别检测任务,该模型大大提升序列句子分类任务的效果,但该模型在生成句向量时忽略了摘要内句子间的关系;Huang等人提出将朴素贝叶斯方法用于PICO类别检测中,隐马尔可夫模型(Hidden Markov Models,HMM)将输入序列看作观测序列、,类别序列看作状态序列,条件随机场(Conditional Random Fields,CRF)解决了HMM无法根据完整的上下文进行标注的问题,但以上三种方法往往需要大量手工构建特征,且特征只通过词频或其他形式表示,不可对词语语义进行表征。
发明内容
有鉴于此,本发明的目的之一在于提供一种基于可扩展动态选择与注意力机制的类别检测方法,该方法能减少对医学文献摘要进行类别检测信息重复、语义空洞问题。
为实现上述目的,本发明的技术方案为:一种基于可扩展动态选择与注意力机制的类别检测方法,包括以下步骤:
将摘要中的单个句子通过双通道融合预训练语言模型ELMo与Bi-LSTM,分别得到第一句向量、第二句向量;
通过动态选择机制筛选保留所述第一句向量、第二句向量中的一个设为主句向量;
将摘要中所有单个句子对应的所述主句向量组成摘要向量序列并通过注意力网络进行加权;
经所述注意力网络加权后的输出进入层连Bi-LSTM网络,单个主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;
采用CRF对所有单个句子对应的文本生成概率进行优化表示形成标签概率序列。
进一步地,所述通过动态选择机制筛选保留所述第一句向量、第二句向量中的一个设为主句向量的步骤,具体方式为:
通过以下公式计算得到隐层单元向量:
Figure GDA0002923470910000031
其中,i为第i个,
Figure GDA0002923470910000032
为通过所述Bi-LSTM得到的所述第二句向量,
Figure GDA0002923470910000033
为通过所述ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量且每一维皆为大于0小于1的实数;
根据所述隐层单元向量通过动态选择机制筛选得到所述主句向量,具体计算公式为:
Figure GDA0002923470910000034
Figure GDA0002923470910000035
为主句向量。
进一步地,所述将摘要中所有单个句子对应的所述主句向量组成摘要向量序列并通过注意力网络进行加权的步骤具体包括:
所述注意力网络中的Bi-LSTM接收一个包含n个单词的句子S={word1,…,wordn},S∈Rn×d,得到两个方向的隐层表示,将其拼接作为经Bi-LSTM编码后的结果H∈Rn×2×u,d为维度,u为LSTM隐层神经元数目;
H作为输入进入注意力网络,按照以下公式从多个层面对计算注意力权重:
A=softmax(Ws2tanh(Ws1HT));
其中,Ws1∈Rda×2×u注意力的权重参数,Ws2∈Rr×da表示通过关注句子的r个层面来对句子进行编码,A为n个单词进行加权求和的权重,da为注意力网络的隐层维度;
最后句子所有单词进行加权求和得到所述第二句向量,其公式为:
M=AH。
进一步地,所述层连Bi-LSTM网络包括多个层连的Bi-LSTM,其中,层连Bi-LSTM网络的首层的计算方式为:
Figure GDA0002923470910000041
Figure GDA0002923470910000042
Figure GDA0002923470910000043
Figure GDA0002923470910000044
A=Attention(S)·S;
Figure GDA0002923470910000045
为正则化项,A为摘要的矩阵经注意力网络处理后得到的最终结果,
Figure GDA0002923470910000051
为第一层LSTM的正向第i个隐层状态;
Figure GDA0002923470910000052
为第一层LSTM的正向第i-1个隐层状态,Ai为经注意力网络第i个句子得到的结果,
Figure GDA0002923470910000053
为第一层LSTM的反向第i个隐层状态,lstm为lstm网络,
Figure GDA0002923470910000054
为第一层LSTM的反向第i+1个隐层状态,att为注意力计算经softmax函数处理前结果,S为注意力计算经softmax函数处理前结果,ST为S的转置,atti为第i个句子的注意力计算经softmax函数处理前结果,attj为第j个句子的注意力计算经softmax函数处理前结果,n为单个句子中单词个数。
进一步地,所述多个层连的Bi-LSTM中,除首层Bi-LSTM外的其他层输入均为其上一层的输入与输出拼接。
有鉴于此,本发明的目的之二在于提供一种基于可扩展动态选择与注意力机制的类别检测系统,该系统能减少类别检测时的信息重复。
为实现上述目的,本发明的技术方案为:一种基于可扩展动态选择与注意力机制的类别检测系统,包括:
单句编码层,包括双通道融合预训练语言模型ELMo与Bi-LSTM,用于接收摘要中的所有单个句子,ELMo将其编码生成第一句向量、Bi-LSTM编码得到第二句向量;
动态选择模块,与所述单句编码层相连,用于筛选保留所述第一句向量、第二句向量中的一个并将其设为主句向量,并将摘要中所有单个句子对应的所述主句向量组成摘要向量序列;
文本信息嵌入层,与动态选择模块相连,包括注意力网络与层连Bi-LSTM网络,用于对摘要向量序列进行加权,单个主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;
标签优化层,与所述文本信息嵌入层相连,用于优化本生成概率形成标签概率序列。
进一步地,所述动态选择模块包括非线性函数控制的门控,用于计算门控大小,控制主句向量的选择。
进一步地,非线性函数控制的门控的计算方法为:
Figure GDA0002923470910000061
其中,
Figure GDA0002923470910000062
为通过所述Bi-LSTM得到的所述第二句向量,
Figure GDA0002923470910000063
为通过所述ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量且每一维皆为大于0小于1的实数。
进一步地,所述层连Bi-LSTM网络中,后一层的输入为前一层的输入与输出的拼接。
有益效果
本发明提供一种基于可扩展动态选择与注意力机制的类别检测系统,在双通道网络加入动态选择机制,以及采用门控机制决定输入上层网络双通道信息,降低了网络覆盖,避免信息重复,同时,加入基于注意力的网络,解决现有类别检测方法中语义空洞问题。与此同时,本发明还提供了一种基于可扩展动态选择与注意力机制的类别方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍。显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明一种基于可扩展动态选择与注意力机制的类别检测系统的一实施例结构示意图;
图2为本发明一种基于可扩展动态选择与注意力机制的类别检测方法的特征图像编码过程流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
所举实施例是为了更好地对本发明进行说明,但并不是本发明的内容仅局限于所举实施例。所以熟悉本领域的技术人员根据上述发明内容对实施方案进行非本质的改进和调整,仍属于本发明的保护范围。
实施例1
参考图1为本发明一种基于可扩展动态选择与注意力机制的类别检测系统的一实施例结构示意图。具体地,一种基于可扩展动态选择与注意力机制的类别检测系统,包括:
单句编码层1,包括双通道融合预训练语言模型ELMo11与Bi-LSTM 12,用于接收摘要中的所有单个句子,ELMo将其中的单个句子编码生成第一句向量、Bi-LSTM将相同单个句子编码得到第二句向量;
本实施例中,ELMo将接受的摘要文本中一个句子进行编码,可得到第一句向量;同时Bi-LSTM将接受的摘要文本中一个句子进行编码得到第二句向量。
优选地,第二句向量中为多种方式对单个句子编码进行加权求和得到的。
动态选择模块2,与单句编码层1相连,用于筛选保留第一句向量、第二句向量中的一个并将其设为主句向量,并将摘要中所有单个句子对应的主句向量组成摘要向量序列;
本实施例中,动态选择模块包括非线性函数控制的门控,用于计算门控大小,控制主句向量的选择,具体地,动态选择模块2中门控大小动态取决于网络对于当前任务的学习而非人为设定进一步地,非线性函数控制的门控的计算方法为:
Figure GDA0002923470910000081
其中,i为第i个,
Figure GDA0002923470910000082
为通过Bi-LSTM得到的第二句向量,
Figure GDA0002923470910000083
为通过ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量且每一维皆为大于0小于1的实数;
对主向量的选择公式在动态选择模块2中设为
Figure GDA0002923470910000091
Figure GDA0002923470910000092
为主句向量。
文本信息嵌入层3,与动态选择模块相连,包括注意力网络与层连Bi-LSTM网络,用于对摘要向量序列进行加权,单个主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;
具体地,本实施例中注意力网络进行加权的步骤为:注意力网络中的Bi-LSTM接收一个包含n个单词的主句向量S={word1,…,wordn},S∈Rn×d,得到两个方向的隐层表示,将其拼接作为经Bi-LSTM编码后的结果H∈Rn×2×u,d为维度,u为LSTM隐层神经元数目;
H作为输入并按照以下公式从多个层面对主句向量计算注意力权重:
A=softmax(Ws2tanh(Ws1HT));
其中,Ws1∈Rda×2×u,Ws2∈Rr×da表示通过关注句子的r个层面来对句子进行编码,A为n个单词进行加权求和的权重,da为注意力网络的隐层维度;
最后句子所有单词进行加权求和得到句子向量矩阵,其公式为:
M=AH。
本实施例中,进一步地,层连Bi-LSTM网络中,除首层外,后一层的输入为前一层的输入与输出的拼接,其中,层连Bi-LSTM网络中首层的计算方式为:
Figure GDA0002923470910000101
Figure GDA0002923470910000102
Figure GDA0002923470910000103
Figure GDA0002923470910000104
A=Attention(S)·S;
Figure GDA0002923470910000105
为正则化项,A为摘要的矩阵经注意力网络处理后得到的最终结果,
Figure GDA0002923470910000106
为第一层LSTM的正向第i个隐层状态;
Figure GDA0002923470910000107
为第一层LSTM的正向第i-1个隐层状态,Ai为经注意力网络第i个句子得到的结果,
Figure GDA0002923470910000108
为第一层LSTM的反向第i个隐层状态,lstm为lstm网络,
Figure GDA0002923470910000109
为第一层LSTM的反向第i+1个隐层状态,att为注意力计算经softmax函数处理前结果,S为注意力计算经softmax函数处理前结果,STS的转置,atti为第i个句子的注意力计算经softmax函数处理前结果,attj为第j个句子的注意力计算经softmax函数处理前结果,n为单个句子中单词个数。
标签优化层4,与文本信息嵌入层相连,用于通过CRF优化文本生成概率形成标签概率序列,得到摘要中每个句子属于每个标签的概率,本实施例中的标签是CRF数据集中已存在的标签。
实施例2
基于实施例1的基于可扩展动态选择与注意力机制的类别检测系统,本发明还提供一种基于可扩展动态选择与注意力机制的类别检测方法,参考图2的流程图,具体地,本方法包括以下步骤:
S500:将摘要中的单个句子通过双通道融合预训练语言模型ELMo与Bi-LSTM,分别得到第一句向量、第二句向量;然后执行步骤S600;
本实施例中,将摘要中的句子同时间通过ELMo通道与Bi-LSTM通道进行编码,经ELMo通道编码后可得到摘要中句子对应的第一句向量,经Bi-LSTM通道编码后可得到摘要中句子对应的第二句向量;
S600:通过动态选择机制筛选保留第一句向量、第二句向量中的一个设为主句向量;
通过动态选择机制筛选保留第一句向量、第二句向量中的一个设为主句向量的步骤,具体方式为:
在第一句向量与第二句向量到达实施例1中的动态选择模块2时,通过以下公式计算得到隐层单元向量:
Figure GDA0002923470910000111
其中,i为第i个,
Figure GDA0002923470910000112
为通过Bi-LSTM得到的第二句向量,
Figure GDA0002923470910000113
为通过ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量且每一维皆为大于0小于1的实数;
根据隐层单元向量通过动态选择机制筛选得到主句向量,具体计算公式为:
Figure GDA0002923470910000114
Figure GDA0002923470910000121
为主句向量;本实施例中,当门控g为0时,语言模型ELMo得到的第一句向量信息将被丢弃,Bi-LSTM网络得到的第二句向量信息将被保留并设为主句向量;当g为1时,语言模型ELMo得到的第一句向量信息将被保留并设为主句向量,Bi-LSTM网络得到的第二句向量信息将被丢弃;与简单拼接方式相比,通过此种方法动态控制句向量的信息流入,可以防止冗余信息进入上层网络,减少了实施例1的系统中的参数量,动态选择机制的可扩展性在于公式中
Figure GDA0002923470910000122
Figure GDA0002923470910000123
可以换成通用词向量、外部信息或任意文本表示。
S700:将摘要中所有单个句子对应的所述主句向量组成摘要向量序列并通过注意力网络进行加权;然后执行步骤S800;
本实施例中,注意力网络中的Bi-LSTM接收一个包含n个单词的主句向量S={word1,…,wordn},S∈Rn×d,得到两个方向的隐层表示,将其拼接作为经Bi-LSTM编码后的结果H∈Rn×2×u,u为LSTM隐层神经元数目;
H作为输入并按照以下公式对主句向量计算注意力权重:
a=softmax(ωs2tanh(Ws1HT));
其中,Ws1∈Rda×2×u为注意力的权重参数,是可学习的随机变量,ωs2∈R1×da表示通过关注句子的1个层面来对句子进行编码,da为注意力网络的隐层维度HT为H的转置,a即为对各个单词进行加权求和的权重;
优选地,对于一个句子,不应只关注其中某一方面的信息,而应关注多方面的信息,以多种不同的方式对句子进行编码。
A=softmax(Ws2tanh(Ws1HT));
其中,Ws1∈Rda×2×u为注意力的权重参数,是可学习的随机变量,Ws2∈Rr×da表示通过关注句子的r个层面来对句子进行编码,A为n个单词进行加权求和的权重,;
最后句子所有单词进行加权求和得到句子向量矩阵,其公式为:
M=AH。
S800:将经注意力网络加权后的输出进入层连Bi-LSTM网络,单个主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;然后执行步骤S900;
参考实施例1中的层连Bi-LSTM网络包括多个层连的Bi-LSTM,本实施例中,在步骤S700中对主句向量进行加权后,再与原始输入数据即摘要文本拼接再输入到层连Bi-LSTM网络中,层连Bi-LSTM网络直接将上下文信息与自身进行匹配,它从输入序列中动态地收集信息并过滤冗余信息,具体地,将摘要向量序列输入层连Bi-LSTM网络,其中Bi-LSTM首层的计算方式为:
Figure GDA0002923470910000131
Figure GDA0002923470910000132
Figure GDA0002923470910000133
Figure GDA0002923470910000134
A=Attention(S)·S;
Figure GDA0002923470910000141
为正则化项,A为摘要的矩阵经注意力网络处理后得到的最终结果,
Figure GDA0002923470910000142
为第一层LSTM的正向第i个隐层状态;
Figure GDA0002923470910000143
为第一层LSTM的正向第i-1个隐层状态,Ai为经注意力网络第i个句子得到的结果,
Figure GDA0002923470910000144
为第一层LSTM的反向第i个隐层状态,lstm为lstm网络,
Figure GDA0002923470910000145
为第一层LSTM的反向第i+1个隐层状态,att为注意力计算经softmax函数处理前结果,S为注意力计算经softmax函数处理前结果,STS的转置,atti为第i个句子的注意力计算经softmax函数处理前结果,attj为第j个句子的注意力计算经softmax函数处理前结果,n为单个句子中单词个数。
优选地,层连Bi-LSTM网络中除首层外的其他层输入方式与现有技术类似,均为其上一层的输入与输出拼接;因层连Bi-LSTM网络已提取了部分关键信息,层连Bi-LSTM网络响应减少了参数量,这样能为解决当维度较大时,出现数值爆炸问题。
本实施例中,在层连Bi-LSTM网络后,得到每个句子属于每个标签的概率,即为文本生成概率。
S900:采用CRF对所有单个句子对应的文本生成概率进行优化表示形成标签概率序列。
本实施例中,将步骤S800中得到所有单个句子对应的文本生成概率整合成概率序列并输入到CRF中,其后通过CRF算法对文本生成概率序列进行优化得到标签概率序列。
实施例3
本实施例中,对实施例1的系统和实施例2的方法的有效性进行验证,具体地,本实施例中采用精确率(Precision,P)、召回率(Recall,R)和F1值度量实验效果,数据集采用PubMed 20k RCT数据集(该数据集来自于PubMed中20k发表最多的文章摘要)与AMRCPIO数据集(Jin提出的针对PICO类别检测的数据集),利用本发明中的系统与现有的模型如:LR(逻辑回归分类器)、CRF(条件随机场分类器)、Best Published(2012年Lui提出的基于多种特征集方法)、Bi-ANN(2017年Dernoncourt提出的标注模型)、Jin(2018Jin年提出的网络)、BERT+Transformer(Cohan将BERT预训练语言模型与Transformer编码器联合使用)、HMcN(Wang等人提出的基于双通道与层连网络的类别检测算法)进行对比,得到的结果如下表:
表格1 PubMed数据集整体效果
Figure GDA0002923470910000151
根据表1,本发明系统的F1值比其他模型分别提高F1分数0.5%-8.7%,很明显,DA-HMcN在各指标均明显优于其他模型,而与同样使用了预训练语言模型的BERT+Transformer模型,但本系统更注重文本信息嵌入与关键字段理解,而非大规模语料信息,且系统与BERT+Transformer模型相比训练复杂度较小;另由于本系统在各指标中皆优于HMcN模型,基于HMcN模型的特性,这表明本系统可以根据任务正确选择信息,将待分类语句语义聚焦在上下文中关键片段之上,解决了摘要文本中的语义“空洞”问题。
本实施例中,还对在AMRCPIO数据集各模型的效果做了对比,由于AMRCPIO数据集为针对PICO类别检测的数据集,本实施例更注重符合PICO模式的样本,所以着重分析P类别、I类别、O类别的实验情况,得到的效果如下表:
表格2 AMRCPIO数据集P类别实验结果(%)
模型 P(%) R(%) F1(%)
LR 66.9 68.5 67.7
CRF 82.2 77.5 79.8
Jin 87.8 83.4 85.5
本发明系统 88.5 83.1 85.7
表格3 AMRCPIO数据集I类别实验结果(%)
模型 P(%) R(%) F1(%)
LR 55.6 55.0 55.3
CRF 67.8 70.3 69.0
Jin 72.7 81.3 76.7
DA-HMcN 79.7 74.7 77.1
表格4 AMRCPIO数据集O类别实验结果(%)
Figure GDA0002923470910000161
Figure GDA0002923470910000171
根据表格2-表格4,看出在三种类别的样本中,本发明中系统的F1值都优于其他模型,与Jin等人提出的针对PICO模式的模型相比,DA-HMcN更注重上下文信息,有效分析了待分类文本语义和摘要中与待分类句子相关文本的语义。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (6)

1.一种基于可扩展动态选择与注意力机制的类别检测方法,其特征在于,包括以下步骤:
将摘要中的单个句子通过双通道融合预训练语言模型ELMo与Bi-LSTM,分别得到第一句向量、第二句向量;
通过动态选择机制筛选保留所述第一句向量、第二句向量中的一个设为主句向量;
将摘要中所有单个句子对应的所述主句向量组成摘要向量序列并通过注意力网络进行加权;
经所述注意力网络加权后的输出进入层连Bi-LSTM网络,单个主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;
采用CRF对所有单个句子对应的文本生成概率进行优化表示形成标签概率序列;其中,
所述通过动态选择机制筛选保留所述第一句向量、第二句向量中的一个设为主句向量的步骤,具体方式为:
通过以下公式计算得到隐层单元向量:
Figure FDA0002923470900000011
其中,i为第i个,
Figure FDA0002923470900000012
为通过所述Bi-LSTM得到的所述第二句向量,
Figure FDA0002923470900000013
为通过所述ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量;
根据所述隐层单元向量通过动态选择机制筛选得到所述主句向量,具体计算公式为:
Figure FDA0002923470900000021
Figure FDA0002923470900000022
为主句向量;
所述将摘要中所有单个句子对应的所述主句向量组成摘要向量序列并通过注意力网络进行加权的步骤具体包括:
所述注意力网络中的Bi-LSTM接收一个包含n个单词的主句向量S={word1,…,wordn},S∈Rn×d,得到两个方向的隐层表示,将其拼接作为经Bi-LSTM编码后的结果H∈Rn×2×u,d为维度,u为LSTM隐层神经元数目;
H作为输入并按照以下公式从多个层面对主句向量计算注意力权重:
A=softmax(Ws2tanh(Ws1HT));
其中,Ws1∈Rda×2×u为注意力的权重参数,Ws2∈Rr×da表示通过关注句子的r个层面来对句子进行编码,A为n个单词进行加权求和的权重,da为注意力网络的隐层维度;
最后句子所有单词进行加权求和得到句子向量矩阵,其公式为:
M=AH。
2.根据权利要求1所述的方法,其特征在于,所述层连Bi-LSTM网络包括多个层连的Bi-LSTM,其中,层连Bi-LSTM网络的首层的计算方式为:
Figure FDA0002923470900000023
Figure FDA0002923470900000024
Figure FDA0002923470900000031
Figure FDA0002923470900000032
A=Attention(S)·S;
Figure FDA0002923470900000033
为正则化项,A为摘要的矩阵经注意力网络处理后得到的最终结果,
Figure FDA0002923470900000034
为第一层LSTM的正向第i个隐层状态;
Figure FDA0002923470900000035
为第一层LSTM的正向第i-1个隐层状态,Ai为经注意力网络第i个句子得到的结果,
Figure FDA0002923470900000036
为第一层LSTM的反向第i个隐层状态,lstm为lstm网络,
Figure FDA0002923470900000037
为第一层LSTM的反向第i+1个隐层状态,att为注意力计算经softmax函数处理前结果,S为注意力计算经softmax函数处理前结果,ST为S的转置,atti为第i个句子的注意力计算经softmax函数处理前结果,attj为第j个句子的注意力计算经softmax函数处理前结果,n为单个句子中单词个数。
3.根据权利要求2所述的方法,其特征在于,所述多个层连的Bi-LSTM中,除首层Bi-LSTM外的其他层输入均为其上一层的输入与输出拼接。
4.一种基于可扩展动态选择与注意力机制的类别检测系统,其特征在于,包括:
单句编码层,用于接收摘要中的所有单个句子,将摘要中的单个句子分别编码生成第一句向量、第二句向量;
动态选择模块,与所述单句编码层相连,用于筛选保留所述第一句向量、第二句向量中的一个并将其设为主句向量,并将摘要中所有单个句子对应的所述主句向量组成摘要向量序列;
所述动态选择模块包括非线性函数控制的门控,用于计算门控大小,控制主句向量的选择;非线性函数控制的门控的计算方法为:
Figure FDA0002923470900000041
其中,i为第i个,
Figure FDA0002923470900000042
为通过所述Bi-LSTM得到的所述第二句向量,
Figure FDA0002923470900000043
为通过ELMo得到的第一句向量,σ为Sigmoid激活函数,Wa,We∈Ru×u为权重,u为动态选择的LSTM隐层神经元数目,bg∈Ru为偏置,g为u维的向量;
控制主句向量的选择的方式为:
Figure FDA0002923470900000044
Figure FDA0002923470900000045
为主句向量;
文本信息嵌入层,与动态选择模块相连,包括注意力网络与层连Bi-LSTM网络,用于对摘要向量序列进行加权,且单个句子的主句向量自动匹配摘要向量序列的上下文,过滤冗余信息进行分类,得到摘要中所有单个句子对应的文本生成概率;
其中,所述文本信息嵌入层对摘要向量序列进行加权的方式为:
所述注意力网络中的Bi-LSTM接收一个包含n个单词的主句向量S={word1,…,wordn},S∈Rn×d,得到两个方向的隐层表示,将其拼接作为经Bi-LSTM编码后的结果H∈Rn×2×u,d为维度,u为LSTM隐层神经元数目;
H作为输入并按照以下公式从多个层面对主句向量计算注意力权重:
A=softmax(Ws2tanh(Ws1HT));
其中,Ws1∈Rda×2×u为注意力的权重参数,Ws2∈Rr×da表示通过关注句子的r个层面来对句子进行编码,A为n个单词进行加权求和的权重,da为注意力网络的隐层维度;
最后句子所有单词进行加权求和得到句子向量矩阵,其公式为:
M=AH;
标签优化层:与所述文本信息嵌入层相连,用于优化文本生成概率形成标签概率序列。
5.根据权利要求4所述的系统,其特征在于,所述单句编码层为双通道融合预训练语言模型包括Bi-LSTM、ELMo,ELMo用于将摘要中单个句子编码生成第一句向量,Bi-LSTM用于将摘要中的单个句子编码生成第二句向量。
6.根据权利要求4所述的系统,其特征在于,所述层连Bi-LSTM网络中,后一层的输入为前一层的输入与输出的拼接。
CN202010659504.XA 2020-07-09 2020-07-09 基于可扩展动态选择与注意力机制的类别检测算法及系统 Active CN111813924B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010659504.XA CN111813924B (zh) 2020-07-09 2020-07-09 基于可扩展动态选择与注意力机制的类别检测算法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010659504.XA CN111813924B (zh) 2020-07-09 2020-07-09 基于可扩展动态选择与注意力机制的类别检测算法及系统

Publications (2)

Publication Number Publication Date
CN111813924A CN111813924A (zh) 2020-10-23
CN111813924B true CN111813924B (zh) 2021-04-09

Family

ID=72842201

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010659504.XA Active CN111813924B (zh) 2020-07-09 2020-07-09 基于可扩展动态选择与注意力机制的类别检测算法及系统

Country Status (1)

Country Link
CN (1) CN111813924B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609840B (zh) * 2021-08-25 2023-06-16 西华大学 一种汉语法律判决摘要生成方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
CN109918510A (zh) * 2019-03-26 2019-06-21 中国科学技术大学 跨领域关键词提取方法
CN109933801A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于预测位置注意力的双向lstm命名实体识别方法
CN110210037A (zh) * 2019-06-12 2019-09-06 四川大学 面向循证医学领域的类别检测方法
CN110334339A (zh) * 2019-04-30 2019-10-15 华中科技大学 一种基于位置感知自注意力机制的序列标注模型与标注方法
CN111078866A (zh) * 2019-12-30 2020-04-28 华南理工大学 一种基于序列到序列模型的中文文本摘要生成方法
CN111291261A (zh) * 2020-01-21 2020-06-16 江西财经大学 融合标签和注意力机制的跨领域推荐方法及其实现系统
CN111325323A (zh) * 2020-02-19 2020-06-23 山东大学 一种融合全局信息和局部信息的输变电场景描述自动生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6842167B2 (ja) * 2017-05-08 2021-03-17 国立研究開発法人情報通信研究機構 要約生成装置、要約生成方法及びコンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法
CN109933801A (zh) * 2019-03-25 2019-06-25 北京理工大学 基于预测位置注意力的双向lstm命名实体识别方法
CN109918510A (zh) * 2019-03-26 2019-06-21 中国科学技术大学 跨领域关键词提取方法
CN110334339A (zh) * 2019-04-30 2019-10-15 华中科技大学 一种基于位置感知自注意力机制的序列标注模型与标注方法
CN110210037A (zh) * 2019-06-12 2019-09-06 四川大学 面向循证医学领域的类别检测方法
CN111078866A (zh) * 2019-12-30 2020-04-28 华南理工大学 一种基于序列到序列模型的中文文本摘要生成方法
CN111291261A (zh) * 2020-01-21 2020-06-16 江西财经大学 融合标签和注意力机制的跨领域推荐方法及其实现系统
CN111325323A (zh) * 2020-02-19 2020-06-23 山东大学 一种融合全局信息和局部信息的输变电场景描述自动生成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Deep Learning Approach With Deep Contextualized Word Representations for Chemical–Protein Interaction Extraction From Biomedical Literature;Cong Sun;《IEEE Access》;20191018;第7卷;151034-151046 *
基于多层次动态门控推理网络的文本蕴含识别;张芮 等;《四川大学学报(自然科学版)》;20200326;第57卷(第2期);277-283 *

Also Published As

Publication number Publication date
CN111813924A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN110364251B (zh) 一种基于机器阅读理解的智能交互导诊咨询系统
CN107516110B (zh) 一种基于集成卷积编码的医疗问答语义聚类方法
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN109800411A (zh) 临床医疗实体及其属性抽取方法
CN111651974B (zh) 一种隐式篇章关系分析方法和系统
CN115033670A (zh) 多粒度特征融合的跨模态图文检索方法
CN117151220B (zh) 一种基于实体链接与关系抽取的行业知识库系统及方法
CN113065358B (zh) 面向银行咨询服务基于多粒度对齐的文本对语义匹配方法
CN112001186A (zh) 一种利用图卷积神经网络和中文句法的情感分类方法
CN111159407A (zh) 训练实体识别和关系分类模型的方法、装置、设备及介质
CN112256866B (zh) 一种基于深度学习的文本细粒度情感分析算法
CN113157859B (zh) 一种基于上位概念信息的事件检测方法
CN114926150A (zh) 一种变压器技术符合性评估数字化智能审核方法与装置
CN113705238A (zh) 基于bert和方面特征定位模型的方面级情感分析方法及模型
CN117094291B (zh) 基于智能写作的自动新闻生成系统
CN114969278A (zh) 一种基于知识增强图神经网络的文本问答模型
CN117033602A (zh) 一种多模态的用户心智感知问答模型的构建方法
CN115048447A (zh) 一种基于智能语义补全的数据库自然语言接口系统
CN114332519A (zh) 一种基于外部三元组和抽象关系的图像描述生成方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN116842194A (zh) 一种电力语义知识图谱系统及方法
CN117807232A (zh) 商品分类方法、商品分类模型构建方法及装置
CN117151222A (zh) 领域知识引导的突发事件案例实体属性及其关系抽取方法、电子设备和存储介质
CN118313382A (zh) 一种基于特征金字塔的小样本命名实体识别方法和系统
CN111813924B (zh) 基于可扩展动态选择与注意力机制的类别检测算法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant