CN110210033B - 基于主述位理论的汉语基本篇章单元识别方法 - Google Patents
基于主述位理论的汉语基本篇章单元识别方法 Download PDFInfo
- Publication number
- CN110210033B CN110210033B CN201910476073.0A CN201910476073A CN110210033B CN 110210033 B CN110210033 B CN 110210033B CN 201910476073 A CN201910476073 A CN 201910476073A CN 110210033 B CN110210033 B CN 110210033B
- Authority
- CN
- China
- Prior art keywords
- word
- bit
- edu
- main bit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于主述位理论的汉语基本篇章单元识别方法。本发明基于主述位理论的汉语基本篇章单元识别方法,包括:通过确定EDU中主、述位的位置间接获得EDU的边界,因此可将EDU识别分成两个部分,首先进行主、述位识别,然后在识别主位和述位后再依据一定的规则合并得到EDU。本发明的有益效果:参考了英文基本篇章单元的识别方法,结合汉语实际情况,在使用深度学习方法的同时引入主述位结构,一方面将EDU识别当作关于主述位的序列化标注问题,实现了主述位结构与EDU的联合识别;另一方面从EDU内部构成的完整性角度进行EDU边界的识别,提升了EDU的识别性能。
Description
技术领域
本发明涉及汉语篇章领域,具体涉及一种基于主述位理论的汉语基本篇章单元识别方法。
背景技术
近年来,随着句子级研究的日趋成熟,篇章分析成为研究热点之一,它在信息抽取、机器翻译、指代消解等自然语言处理领域中的应用越来越广泛,成为自然语言理解的核心问题之一。
篇章也称语篇,通常是由一系列连续的子句、句子和句群构成的语言整体单位。任何文本单元都不可孤立的进行解读,而是需要根据其上下文进行解读。而篇章分析的目的就是从整体上解读文本,分析篇章内部的结构和关系。因此,篇章分析的一般步骤包括,(1)识别基本篇章单元。基本篇章单元(Elementary Discourse Units,EDU)是句子中具有独立语义和独立功能的最小单位,是进行篇章分析的基本单位。(2)篇章结构及关系的解析。将识别出的基本篇章单元依据一定的关系(例如修辞关系)构建形成特定结构,常见的结构有树和图等。可以看到,无论进行哪种篇章结构的分析,EDU识别都是一项基础工作,它的识别性能会对后续篇章结构的解析产生极大的影响。
随着RST-DT(Rhetorical Structure Theory Discourse Treebank)与PDTB(PennDiscourse Treebank)英文篇章语料库的发布,针对英文基本篇章单元识别的研究受到了很多研究人员的关注。代表性工作包括:Sporleder和Lapata第一个引入神经网络模型,将基本篇章单元识别作为序列化标注问题。Xuan Bach等在RST-DT语料中进行的EDU识别实验得到目前的最优性能,F1值为93.7%。但他们的工作过分依赖标准词法、句法信息,而在实际应用中这些信息的获取需要耗费大量的人力物力。Chloe Braud采取序列化标注的方法,使用自动词法、句法信息作为输入特征,F1值为86.8%。
受限于语料库,有关汉语基本篇章单元识别的研究相对较少,主要思想是将EDU识别任务看作汉语中的逗号分类问题,代表性工作有:李艳翠分析了逗号与基本篇章单元的关系,并在标注语料上进行了基于逗号的汉语EDU识别研究。Nianwen Xue等将中文子句切分当作逗号分类问题,自动识别汉语句子中表示句号功能的逗号,识别的准确率接近90%。Jin等提出利用逗号、谓词等特征分割汉语句子的方法,准确率为87.1%。
传统技术存在以下技术问题:
相比英文,汉语篇章分析的相关研究刚刚起步,目前主要存在如下一些问题:
(1)针对汉语篇章分析的理论指导体系还不够完善。汉语注重意会,严重依赖上下文,与西方语言差异显著,使得汉语篇章分析不能照搬西方语言的篇章分析方法,需要汉语篇章研究者们结合汉语特点,通过借鉴西方语言篇章分析方法,找出适合汉语篇章分析的研究方法。
(2)适用于汉语篇章分析研究的大规模语料库相对缺乏。近年来建立汉语篇章语料库资源成为研究者关注的焦点。乐明依据修辞结构理论(Rhetorical StructureTheory,RST)完成了语料标注工作。Zhou和Xue等在分析中英文差异的基础上,通过扩展PDTB体系构建了中文篇章树库CDTB(Chinese Discourse Treebank)。李艳翠等结合RST和PDTB体系的优点,联合汉语句群理论,提出了连接词驱动的篇章树表示体系,并以此为依据标注完成了500个文档的汉语连接词驱动篇章树库CDTB(Connective-driven DiscourseTreebank)。奚雪峰等提出了基于主述位理论的篇章微观话题结构表示体系,并依据它标注形成了500篇文档的微观话题结构语料库CDTC。
(3)而且上述有关汉语EDU识别研究都是基于传统机器学习方法,基本思想是将汉语EDU识别当作逗号分类问题,虽然取得了不错的识别效果,但也有不足之处。首先,他们的模型均需人工提取特征,而人工建立特征工程往往需要投入大量时间研究和调整输入特征。同时实验效果依赖标准词法、句法信息,当没有标准信息时,实验结果较差。
发明内容
本发明要解决的技术问题是提供一种基于主述位理论的汉语基本篇章单元识别方法,参考了英文基本篇章单元的识别方法,结合汉语实际情况,在使用深度学习方法的同时引入主述位结构,一方面将EDU识别当作关于主述位的序列化标注问题,实现了主述位结构与EDU的联合识别;另一方面从EDU内部构成的完整性角度进行EDU边界的识别,提升了EDU的识别性能。
为了解决上述技术问题,本发明提供了一种基于主述位理论的汉语基本篇章单元识别方法,包括:通过确定EDU中主、述位的位置间接获得EDU的边界,因此可将EDU识别分成两个部分,首先进行主、述位识别,然后在识别主位和述位后再依据一定的规则合并得到EDU;
模型以句子为基本处理单位,输入句子后,进行分词和词性标注,再以词为单位,交由主述位识别模型的Word Sequence Layer层进行编码,再由Inference Layer层进行解码和标注,最终得到主位和述位的边界,最后依据一定的规则进行主、述位的合并,得到最终的EDU边界信息。
在另外的一个具体实施例中,下面将对模型进行详细的介绍:
标注体系:
从篇章衔接性角度看,主位和述位构成了信息推进的序列,可以在对上下文信息进行编码的基础上借助序列化标注方法完成主位和述位的标注。而序列化标注方法首先需要设计一套切实可行的标签集合。
通过对语料的分析,本发明发现待标注的主述位结构可以分为三种类型,对于这三种不同类型本发明设计了不同的标注方案:
主述位结构完整型,即包含完整的非单词型的主位和述位。
单词型主位,即主位仅包含一个词。
这种情况下主位仅由一个词构成,BIE标注体系无法使用,因为开始位置与结束位置冲突。对于这种情况本发明使用B-T-E表示主位;
隐式主位型,即当前EDU的主位信息可由上下文推导得出,并未显式给出;
这种情况下,句子可看作“主位-述位-述位”的序列;对于连续出现多个述位的情况而言,后续述位可看作是包含隐式主位的EDU;这种情况标注方案在主述位的标注中,默认主位省略,不标注主位;
主述位识别模型:
主述位识别模型由两部分构成:Word Sequence Layer和Inference Layer,下面将分别进行介绍。
Word Sequence Layer:
Word Sequence Layer需要完成两个任务:(1)处理输入的句子,返回一个由词向量和词性向量拼接而成的序列;(2)对于给定的词信息序列(x1,x2,x3,...,xn),提取其对应的上下文特征,返回一个关于输入序列的表示序列(h1,h2,h3,...,hn)。
在任务1中,本发明将一个含有n个词的句子(词的序列)记作:
x=(x1,x2,x3,...,xn)
其中xi表示句子的第i个词在字典中的id。然后,本发明利用预训练的Embedding矩阵将句子中的每个词xi映射为低维稠密的词向量,最终将词向量、词性向量拼接作为下一个任务的输入。
对于任务2,本发明选用双向LSTM、GCN对输入序列进行建模,动态捕获序列数据信息,得到目标左边和右边的上下文信息,学习长期的依赖关系,自动提取句子特征。
模型的输入为词和词性,在Word/POS Representations部分,通过查找词向量表,借助预训练的词向量将词转化为向量表示,同时随机生成词性向量,最终在每个词处将词向量与词性向量拼接形成整体后,送入Forward LSTM与Backward LSTM中进行特征抽取。Forward LSTM从左向右捕获文本信息,而Backward LSTM以相反方向提取信息。前向LSTM与后向LSTM的隐藏状态在LSTM hidden处串联表示整个序列的全局信息,最终将此信息传入GCN Layer层;
参考Diego Marcheggiani提出的方法,制定了如下约束:
约束1:为了避免丢失节点自己所携带的信息,本发明对图中每个节点添加一个指向自己的特殊的边,指定其标签为SELF。
约束2:在依存句法图中,并不能假设信息仅沿着依存弧的方向流动,本发明同样允许信息沿着反方向流动。
约束3:由于本发明将标签扩展为正反向和SELF,则原来pyltp使用的14中依存关系被扩展为29种,每种依存关系对应一个矩阵W和向量b,这会使得模型参数过多,存在过拟合的危险,因此在本发明中本发明不关心依存关系的具体类别,只保留依存关系的三种方向。
Inference Layer
Inference Layer将Word Sequence Layer传来的全局信息作为特征,借助解码环节为每个词分配标签。Inference Layer通常有两种标签分配方式:softmax和条件随机场(CRF)。主述位识别任务属于强输出标签依赖性的任务,而条件随机场更适合处理此类任务,因为它可以在相邻标签之间添加转换分数来捕获标签的依赖性。因此本发明在Inference Layer中,借助Word Sequence Layer传来的全局信息,使用CRF模型进行句子级的序列化标注。
如果记一个长度等于句子x中词的个数的标签序列为y=(y1,y2,y3,...,yn),那么模型对于句子x的标签等于y的打分为:
其中,Aij表示的是从第i个标签到第j个标签的转移得分,从上述公式可以看出整个序列的打分等于各个位置的打分之和,而每个位置的打分由双向LSTM输出的pi和CRF的转移矩阵A决定。对所有的得分使用Softmax进行归一化后的概率:
其中,x为训练样本,分子上的y为正确的标注序列,下面对真实标记序列y的概率取log,得到损失函数:
最终的目标就是最大化上述公式,因此对上述公式取负,然后最小化,这样就可以使用梯度下降等优化方法来求解参数。
模型训练完毕,使用动态规划的Viterbi算法解码,求解最优路径:
y*=argmaxscore(x,y')
最终,将y*作为预测结果输出;
合并生成EDU。
在另外的一个具体实施例中,这些标签要能体现每个词的归属,在主述位识别任务中,采用了BIE标签集合,将每个词标注为“B-X”、“I-X”、“E-X”;其中,“B-X”表示这个词所在片段属于X类型并且该词位于所在片段的开头,“I-X”表示这个词所在片段属于X类型并且该词位于所在片段的内部,“E-X”表示这个词所在片段属于X类型并且该词位于所在片段的结尾。
在另外的一个具体实施例中,同时考虑过使用字向量和字性向量作为下一个任务的输入,结果发现使用词向量和词性向量的EDU识别效果要优于字向量和字性向量。
在另外的一个具体实施例中,合并生成EDU包括:
确定主位、述位的位置后,由EDU的定义可知:
(1)在主述位结构完整的情况下,基本篇章单元由相邻的主位和述位构成,据此可以确定一个基本篇章单元的位置。
(2)对于连续出现多个述位的情况而言,后续述位可看作是包含隐式主位的EDU。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
本发明的有益效果:
参考了英文基本篇章单元的识别方法,结合汉语实际情况,在使用深度学习方法的同时引入主述位结构,一方面将EDU识别当作关于主述位的序列化标注问题,实现了主述位结构与EDU的联合识别;另一方面从EDU内部构成的完整性角度进行EDU边界的识别,提升了EDU的识别性能。
附图说明
图1是本发明基于主述位理论的汉语基本篇章单元识别方法中的基于主述位理论EDU识别基本框架示意图。
图2是本发明基于主述位理论的汉语基本篇章单元识别方法中的主述位结构完整图。
图3是本发明基于主述位理论的汉语基本篇章单元识别方法中的单词型主位示意图。
图4是本发明基于主述位理论的汉语基本篇章单元识别方法中的隐式主位型示意图。
图5是本发明基于主述位理论的汉语基本篇章单元识别方法中的基于主述位理论EDU识别详细框架示意图。
图6是本发明基于主述位理论的汉语基本篇章单元识别方法中的BILSTM Layer。
图7是本发明基于主述位理论的汉语基本篇章单元识别方法中的GCN Layer。
图8是本发明基于主述位理论的汉语基本篇章单元识别方法中的依存句法结构实例。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
述位理论
本小节详细介绍本发明的核心:主述位理论。主述位理论的核心是主位和述位两个概念,它们最早由布拉格学派的Mathesius提出,在语言学中得到广泛运用,但在计算机领域运用较少。此后,Halliday认为:句子按主位展开,主位用于表示在上下文语境中已知或是明显的信息,是说话人想要表达信息的起始点;述位代表话题的核心,用于表示说话人扩展或解释主位的信息,往往是说话人要传达的新信息。
从篇章角度分析,主位是基本篇章单元(EDU)中的第一个构成成分,述位是基本篇章单元中去除主位后遗留的成分。因此,一个完整的句子可看作“主位-述位-主位-述位……”的序列,其中相邻的主位-述位构成一个基本篇章单元。据此奚雪峰借鉴主述位理论提出了基于主述位理论的篇章微观话题结构表示体系,并据此标注完成了500篇文本的微观话题结构语料库CDTC(Chinese Discourse Topic Corpus)。该语料从CTB6.0中选取500篇文档标注了基本篇章单元(Elemental Discourse Unit,EDU)、基本篇章话题的主位(Theme)和述位(Rheme)等信息,反映了汉语基本篇章单元以及汉语篇章衔接性的语言现象和特点,为面向汉语的篇章话题结构提供了语料资源。本发明仅关注其中基本篇章单元和主述位的定义,具体如下:
定义:基本篇章单元(EDU),在话题结构中又被称为篇章基本话题单元(Elementary Discourse Topic Unit,EDTU)。一个EDTU由一个主位(Theme)和一个述位(Rheme)构成,其中主、述位可能会出现省略现象,省略时称为隐式主、述位。篇章基本话题单元中的主位是指包含在一个篇章基本话题单元(EDTU)之中的谓词前面的成分,一般包含主语;述位是指EDTU中除主位外的剩余部分。基本篇章单元与主位、述位的关系如例子1所示。
例子1:[[外商投资企业的出口商品]T1[仍以轻纺产品为主,]R1]EDU1[[其中,出 口额最大的商品]T2[是服装,]R2]EDU2[[Φ]T3[去年为七十六点八亿美元。]R3]EDU3
例子1中,句子“外商投资企业的出口商品仍以轻纺产品为主,其中,出口额最大的商品是服装,去年为七十六点八亿美元。”由三个基本篇章单元组成。其中,EDU1“外商投资企业的出口商品仍以轻纺产品为主,”中包含主位T1“外商投资企业的出口商品”和述位R1“仍以轻纺产品为主,”。同理EDU2中T2“其中,出口额最大的商品”为主位,R2“是服装。”为述位。但EDU3则与EDU1、EDU2不同,其主位T3被省略,为隐式主位,述位为R3“去年为七十六点八亿美元。”。
由上述定义可知,准确地识别出主述位的位置信息就能确定EDU的边界。如例子1中,如果识别出主位T1“外商投资企业的出口商品”和述位R1“仍以轻纺产品为主,”的边界,就可以得到EDU1的边界,具体实现将在下一节中详细介绍。
从篇章衔接性角度出发,本发明认为每个EDU都由主位和述位两部分构成,其中主位是说话人想要表达信息的起始点,而述位代表话题的核心,用于表示说话人扩展或解释主位的信息,是说话人要传达的新信息。因此只要准确地识别主位和述位的位置,就能通过主述位确定基本篇章单元的边界。基于此,本发明给出了一个基于主述位理论的基本篇章单元自动识别方法,其基本思想是充分利用主述位间的信息序列化特性,将主述位识别看作一个序列化标注问题,在识别出主述位的基础上,再根据主述位的位置确定EDU的边界。在微观话题结构语料库CDTC上进行的实验表明,基于主述位理论的EDU识别方法在不使用标准句法等复杂信息的情况下就能取得不错的效果,EDU识别的F1值为90.17%,而主位、述位识别的F1值分别为88.15%、89.15%。
基于主述位理论的EDU识别:
本发明通过确定EDU中主、述位的位置间接获得EDU的边界,因此可将EDU识别分成两个部分,首先进行主、述位识别,然后在识别主位和述位后再依据一定的规则合并得到EDU。
图1给出了基于主述位理论的EDU识别的完整框架。从框架图中可以看到,模型以句子为基本处理单位,输入句子后,进行分词和词性标注,再以词为单位,交由主述位识别模型的Word Sequence Layer层进行编码,再由Inference Layer层进行解码和标注,最终得到主位和述位的边界,最后依据一定的规则进行主、述位的合并,得到最终的EDU边界信息。下面将对模型进行详细的介绍。
标注体系:
从篇章衔接性角度看,主位和述位构成了信息推进的序列,可以在对上下文信息进行编码的基础上借助序列化标注方法完成主位和述位的标注。而序列化标注方法首先需要设计一套切实可行的标签集合。这些标签要能体现每个词的归属,在主述位识别任务中,本发明采用了BIE标签集合,将每个词标注为“B-X”、“I-X”、“E-X”。其中,“B-X”表示这个词所在片段属于X类型并且该词位于所在片段的开头,“I-X”表示这个词所在片段属于X类型并且该词位于所在片段的内部,“E-X”表示这个词所在片段属于X类型并且该词位于所在片段的结尾。
通过对语料的分析,本发明发现待标注的主述位结构可以分为三种类型,对于这三种不同类型本发明设计了不同的标注方案:
主述位结构完整型,即包含完整的非单词型的主位和述位。如例子2所示,标注方法如图2。
例子2:[[湄洲湾南岸]T[将主要依靠大工业来带动发展。]R]EDU
图2中,“湄洲湾南岸”为主位,标签B-T表示主位的开始位置,I-T表示主位的内部,E-T表示主位的结束位置,同理B-R表示述位的开始位置,I-R表示述位的内部,E-R表示述位的结束位置。
单词型主位,即主位仅包含一个词。如例子3所示,标注方法如图3。
例子3:[[九江]T[是连接长江南北的要道。]R]EDU
这种情况下主位仅由一个词构成,BIE标注体系无法使用,因为开始位置与结束位置冲突。对于这种情况本发明使用B-T-E表示主位,述位标注方案与方案(1)一致。
隐式主位型,即当前EDU的主位信息可由上下文推导得出,并未显式给出。如例子4所示,标注方案如图4。
例4:[[崇明]T1[是中国第三大岛,]R1]EDU1[[Φ]T2[具有悠久的历史。]R2]EDU2
这种情况下,句子可看作“主位-述位-述位”的序列,如图4所示。对于连续出现多个述位的情况而言,后续述位可看作是包含隐式主位的EDU。这种情况标注方案如图4,在主述位的标注中,本发明默认主位省略,不标注主位,仅标注述位“具有悠久的历史。”,述位标注方案与方案(1)中述位标注一致。
主述位识别模型:
如图1所示,主述位识别模型由两部分构成:Word Sequence Layer和InferenceLayer,图5给出模型的具体结构,下面将分别进行介绍。
Word Sequence Layer:
Word Sequence Layer需要完成两个任务:(1)处理输入的句子,返回一个由词向量和词性向量拼接而成的序列;(2)对于给定的词信息序列(x1,x2,x3,...,xn),提取其对应的上下文特征,返回一个关于输入序列的表示序列(h1,h2,h3,...,hn)。
在任务1中,本发明将一个含有n个词的句子(词的序列)记作:
x=(x1,x2,x3,...,xn)
其中xi表示句子的第i个词在字典中的id。然后,本发明利用预训练的Embedding矩阵将句子中的每个词xi映射为低维稠密的词向量,最终将词向量、词性向量拼接作为下一个任务的输入。实验过程中,本发明同时考虑过使用字向量和字性向量作为下一个任务的输入,结果发现使用词向量和词性向量的EDU识别效果要优于字向量和字性向量。
对于任务2,本发明选用双向LSTM、GCN对输入序列进行建模,动态捕获序列数据信息,得到目标左边和右边的上下文信息,学习长期的依赖关系,自动提取句子特征。
图6给出了BILSTM Layer的具体实现方法。模型的输入为词和词性,如图6所示,在Word/POS Representations部分,通过查找词向量表,借助预训练的词向量将词转化为向量表示,同时随机生成词性向量,最终在每个词处将词向量与词性向量拼接形成整体后,送入Forward LSTM与Backward LSTM中进行特征抽取。Forward LSTM从左向右捕获文本信息,而Backward LSTM以相反方向提取信息。前向LSTM与后向LSTM的隐藏状态在LSTM hidden处串联表示整个序列的全局信息,最终将此信息传入GCN Layer层。
众所周知,BILSTM在序列化标注模型中取得了极好的效果,目前的state-of-the-arts基本都是基于BILSTM-CRF模型。但是该模型仅利用了句子中的表面信息,实际上可以有更多的信息可以使用,比如传统的句法分析。本发明认为早期的研究者们没有使用这些信息的原因在于缺乏一种将句法信息纳入序列神经网络模型的简单、有效的方法。因此,本发明采用GCN模型来解决这个限制。
如图7所示,GCN Layer采用一种基于依存句法的图卷积编码器。本部分参考DiegoMarcheggiani提出的方法,将传统GCN进行了改进,将GCN拼接在LSTM后面,从而能够使用GCN来刻画一个句子的依存分析树信息,作为句子的语法结构的编码器,如图6GCN部分所示。
首先,输入句子的依存句法结构来自于哈工大的pyltp工具包。实验中本发明发现GCNs与LSTMs是相互补充的,虽然BILSTM能够在没有提供语法信息的情况下捕获一定程度上的语法信息,但是LSTM对于远距离词之间的关系捕获效果较差,距离越长,其效果越差,而GCN可以帮助进行这种距离的缩减。同时,GCN可以将句子中每个单词邻域的相关信息编码为实值向量。具体方法如下:
得到句子中每个词经过双向LSTM的输出h1,h2,h3,...,hn后,将其作为GCN的输入。每次进行图卷积时,对应的节点hi会接受邻接节点信息,加权求和后更新自身所携带的信息。多层GCN可以合并更高程度的邻域,获得更丰富的信息。
本部分使用的是简化版的GCN模型,定义如下:对于一个图G=(V,E),V表示图中的节点v1,v2,...,vN(本发明中为句子中每个单词w1,w2,...,wN),GCN中的每个节点都携带一个特征常量或者特征向量。GCN与LSTM模型一样,GCN也可以叠加多层。经过一层GCN后,节点i携带的特征向量可由以下公式形式化表达:
如图7所示,其中,k表示第k层GCN,L(u,v)包括两个词之间的依存关系和依存弧方向。
但是这样的做法存在两大问题:
(1)本发明的句法分析的结果来自于pyltp工具,得到的依存句法图中每个节点都不存在自连接(自身与自身没有相连的边),这在进行图卷积时会导致每个节点丢失自身信息。事实上在特征提取时,自身的信息非常重要。
(2)如果模型的L(u,v)中即考虑两个词之间的依存关系又考虑信息流动的方向,会导致模型over-parameterized。
为解决上述问题,本发明参考Diego Marcheggiani提出的方法,制定了如下约束:
约束1:为了避免丢失节点自己所携带的信息,本发明对图中每个节点添加一个指向自己的特殊的边,指定其标签为SELF。
约束2:在依存句法图中,本发明并不能假设信息仅沿着依存弧的方向流动,本发明同样允许信息沿着反方向流动。
约束3:由于本发明将标签扩展为正反向和SELF,则原来pyltp使用的14中依存关系被扩展为29种,每种依存关系对应一个矩阵W和向量b,这会使得模型参数过多,存在过拟合的危险,因此在本发明中本发明不关心依存关系的具体类别,只保留依存关系的三种方向。
Inference Layer
Inference Layer将Word Sequence Layer传来的全局信息作为特征,借助解码环节为每个词分配标签。Inference Layer通常有两种标签分配方式:softmax和条件随机场(CRF)。主述位识别任务属于强输出标签依赖性的任务,而条件随机场更适合处理此类任务,因为它可以在相邻标签之间添加转换分数来捕获标签的依赖性。因此本发明在Inference Layer中,借助Word Sequence Layer传来的全局信息,使用CRF模型进行句子级的序列化标注。
如果记一个长度等于句子x中词的个数的标签序列为y=(y1,y2,y3,...,yn),那么模型对于句子x的标签等于y的打分为:
其中,Aij表示的是从第i个标签到第j个标签的转移得分,从上述公式可以看出整个序列的打分等于各个位置的打分之和,而每个位置的打分由双向LSTM输出的pi和CRF的转移矩阵A决定。对所有的得分使用Softmax进行归一化后的概率:
其中,x为训练样本,分子上的y为正确的标注序列,下面对真实标记序列y的概率取log,得到损失函数:
最终的目标就是最大化上述公式,因此对上述公式取负,然后最小化,这样就可以使用梯度下降等优化方法来求解参数。
模型训练完毕,使用动态规划的Viterbi算法解码,求解最优路径:
y*=argmaxscore(x,y')
最终,将y*作为预测结果输出。如图1Inference Layer层下面的输出所示,模型的输入为“中国机电产品进出口贸易继续增加,占中国总进出口的比重继续上升。”,预测结果为“B-T I-T I-T I-T E-T B-R I-R E-R B-R I-R I-R I-R I-R I-R I-R I-R E-R”,预测结果中的每一个标签对应输入句子中相应位置的词,由标签本发明可将输入句子分为3个片段,如图1所示:第一个片段为Theme1,即主位“中国机电产品进出口贸易”;第二个片段为Rheme1,即述位“继续增加,”;第三个片段为Rheme2,即述位“占中国总进出口的比重继续上升。”。
合并生成EDU:
确定主位、述位的位置后,由EDU的定义可知:
(1)在主述位结构完整的情况下,基本篇章单元由相邻的主位和述位构成,据此可以确定一个基本篇章单元的位置,如图1中EDU1所示,该基本篇章单元由主位Theme1和述位Rheme1构成。
(2)对于连续出现多个述位的情况而言,后续述位可看作是包含隐式主位的EDU。如图1中的第三个片段Rheme3,前面位置没有主位,省略了主位“中国机电产品进出口贸易”,因此Rheme3“占中国总进出口的比重继续上升。”为基本篇章单元。
实验选用的语料为苏州大学自然语言处理实验室构建的基于微观话题结构(Micro-Topic Scheme)的汉语篇章话题结构语料库(Chinese Discourse Topic Corpus,CDTC)。汉语篇章话题结构语料库从CTB6.0中抽取了500篇文档进行语料标注,采用微观话题结构标注体系。该语料中所有识别项目的Kappa值均大于0.75,其中基本篇章单元识别的Kappa值为0.91、主述位识别的Kappa值为0.83。实验超参数设置如表1所示:
表1 实验超参数设置
本发明提出了一种基于主述位理论的EDU识别方法,首先验证该方法的有效性。由于CDTC语料规模有限,因此在这部分实验中将语料均分为5份,采用5倍交叉验证衡量系统性能,使用Precision(P),Recall(R),F1-score(F)作为评测标准。
如前文所述,本发明将EDU识别当作基于主述位的序列化标注任务,而在英文EDU识别中同样采用了序列化标注的方法。不同点在于英文中直接通过序列化标注EDU得到EDU的边界,并没有引入主述位的概念。为了说明主述位结构在汉语EDU识别中的作用,本发明将基于主述位理论的EDU识别方法(TR-EDU-Detector)与直接采用序列化标注策略进行EDU识别方法(EDU-Detector)进行了对比,具体结果如表2所示。
表2 两种不同EDU识别方法对比
通过实验结果的对比可以发现,在汉语中直接对EDU进行序列化标注的结果要比基于主述位理论的EDU识别方法的性能差,准确率和召回率都有不同程度的下降,系统F1值下降了约3%。
虽然英文中直接将EDU识别作为序列化标注任务取得了不错的效果,但在汉语中的识别效果不如基于主述位理论的EDU识别方法。主要原因在于:
(1)汉语注重意会,省略现象较多,比如:“[崇明是中国第三大省,]EDU1[具有悠久的历史。]EDU2”由两个EDU组成,第二个EDU省略了“崇明”,若直接进行序列化标注可能会由于主位省略导致两个EDU被划分为一个。而基于主述位理论的EDU识别方法由于隐式主位的存在反而降低了这种情况出现的概率。
(2)对于构成复杂、长度较长的EDU,直接进行EDU识别比较困难,而通过引入主述位结构可将复杂的EDU转化为相对简单、长度较短的主位、述位两个部分,分别进行识别。
(3)主述位在一定程度上体现了篇章的信息流,特别是新旧信息间的推进,通过Bi-LSTM对上下文进行表征,能很好的区分这一信息,从而有助于EDU边界的确定。
表3 TR/机器学习EDU识别结果
已有的一些中文EDU识别研究都是把EDU识别看作逗号消歧问题,通过人工提取逗号所在上下文的多种信息对逗号进行分类,从而完成EDU的识别。代表性的工作有李艳翠等,他们借助最大熵、决策树、贝叶斯等分类器,人工提取了词法、句法、距离和语义等13类特征,从CTB6.0中抽取了与本发明相同的500篇文档进行实验。本发明采用与其相同的实验语料配置,对应性能如表3所示。
由上述实验对比结果可以看到,虽然基于主述位EDU识别的准确率比基于特征的最大熵分类方法低2.6%,但本发明在实验中仅使用词法特征,对句法特征依赖较小。而他们的实验结果严重依赖句法信息,去除句法相关特征后,李等EDU识别的准确率下降了约6%,而本发明的模型仅降低了约1%。
这些传统机器学习方法存在一个问题,他们仅关注逗号的功能类别,忽略了EDU作为一个独立的篇章单元的内部构成。本发明提出的基于主述位理论的EDU识别方法的输入是句子及其对应的分词和词性标注信息,不依赖标准的句法信息。本发明进一步进行了标准/自动分词和词性标注场景下的EDU识别,对应的性能如表4所示。
表4 标准/自动分词和词性标注下EDU识别
本发明借助结巴分词工具进行了自动分词和词性标注。从表4所示的结果可以看到,本发明提出的基于主述位理论的EDU识别方法更稳定,对标准信息的依赖性较小,使用自动词性与标准词性EDU识别的性能相比,F1值仅下降约0.7%。
与其他已有方法相比,本发明提出的基于主述位的EDU识别方法更关注EDU内部的成分构成,在识别主位和述位的同时完成EDU的识别。
本发明以句子“湄洲湾南岸主要依靠大工业带动发展。”为例对上述过程中的关键步骤进行说明,该句子对应的依存句法树如图8所示。
按照上文3.2部分所述,使用词向量和词性向量拼接得到序列的初始表示x1,x2,x3,...,xn,初始表示经由BILSTM层得到对应的上下文表示h1,h2,h3,...,hn,结合GCN Layer融入句法信息,获得包含句法信息的上下文表示H(t)。
最终,本发明对包含句法和上下文信息的H(t)使用条件随机场(CRF)进行解码,获得句子“湄洲湾南岸主要依靠大工业带动发展。”中对应的标签序列:
B-T E-T B-R I-R I-R I-R I-R I-R E-R
预测结果中的每一个标签对应输入句子中相应位置的词,由标签本发明可将输入句子分为2个片段,第一个片段为主位“湄洲湾南岸”;第二个片段为述位“主要依靠大工业带动发展。”。
确定主位、述位的位置后,由EDU的定义可知:基本篇章单元由相邻的主位和述位构成,据此可以确定一个基本篇章单元的位置,该基本篇章单元由主位“湄洲湾南岸”和述位“主要依靠大工业带动发展。”构成。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (6)
1.一种基于主述位理论的汉语基本篇章单元识别方法,其特征在于,包括:通过确定EDU中主、述位的位置间接获得EDU的边界,因此可将EDU识别分成两个部分,首先进行主、述位识别,然后在识别主位和述位后再依据一定的规则合并得到EDU;
模型以句子为基本处理单位,输入句子后,进行分词和词性标注,再以词为单位,交由主述位识别模型的Word Sequence Layer层进行编码,再由Inference Layer层进行解码和标注,最终得到主位和述位的边界,最后依据一定的规则进行主、述位的合并,得到最终的EDU边界信息;
所述主述位识别模型包括:
标注体系:
序列化标注方法首先需要标签集合;
待标注的主述位结构分为三种类型:
主述位结构完整型,即包含完整的非单词型的主位和述位;
单词型主位,即主位仅包含一个词;
单词型主位仅由一个词构成,BIE标注体系无法使用,因为开始位置与结束位置冲突,则使用B-T-E表示主位;
隐式主位型,即当前EDU的主位信息可由上下文推导得出,并未显式给出;
隐式主位型的句子为“主位-述位-述位”的序列;对于连续出现多个述位,后续述位是包含隐式主位的EDU;标注方案在主述位的标注中,默认主位省略,不标注主位;
主述位识别模型:
主述位识别模型由两部分构成:Word Sequence Layer和Inference Layer;
Word Sequence Layer需要完成两个任务:任务1处理输入的句子,返回一个由词向量和词性向量拼接而成的序列;任务2对于给定的词信息序列(x1,x2,x3,...,xn),提取其对应的上下文特征,返回一个关于输入序列的表示序列(h1,h2,h3,...,hn);
在任务1中,一个含有n个词的句子记作:
x=(x1,x2,x3,...,xn)
其中xi表示句子的第i个词在字典中的id,然后,利用预训练的Embedding矩阵将句子中的每个词xi映射为低维稠密的词向量,最终将词向量、词性向量拼接作为下一个任务的输入;
对于任务2,选用双向LSTM、GCN对输入序列进行建模,动态捕获序列数据信息,得到目标左边和右边的上下文信息,学习长期的依赖关系,自动提取句子特征;
模型的输入为词和词性,在Word/POS Representations部分,通过查找词向量表,借助预训练的词向量将词转化为向量表示,同时随机生成词性向量,最终在每个词处将词向量与词性向量拼接形成整体后,送入Forward LSTM与Backward LSTM中进行特征抽取;Forward LSTM从左向右捕获文本信息,而Backward LSTM以相反方向提取信息;前向LSTM与后向LSTM的隐藏状态在LSTM hidden处串联表示整个序列的全局信息,最终将此信息传入GCN Layer层;
约束1:为了避免丢失节点自己所携带的信息,每个节点添加一个指向自己的特殊的边,指定其标签为SELF;
约束2:信息仅沿着依存弧的方向流动,信息沿着反方向流动;
约束3:由于将标签扩展为正反向和SELF,则原来pyltp使用的14中依存关系被扩展为29种,每种依存关系对应一个矩阵W和向量b,这会使得模型参数过多,存在过拟合的危险,因此在依存关系的具体类别,只保留依存关系的三种方向;
Inference Layer将Word Sequence Layer传来的全局信息作为特征,借助解码环节为每个词分配标签;Inference Layer通常有两种标签分配方式:softmax和条件随机场CRF;主述位识别任务为强输出标签依赖性的任务,而条件随机场处理此类任务,以在相邻标签之间添加转换分数来捕获标签的依赖性;在Inference Layer中,根据Word SequenceLayer传来的全局信息,使用CRF模型进行句子级的序列化标注;
记一个长度等于句子x中词的个数的标签序列为y=(y1,y2,y3,...,yn),模型对于句子x的标签等于y的打分为:
其中,Aij表示的是从第i个标签到第j个标签的转移得分,从上述公式可以看出整个序列的打分等于各个位置的打分之和,而每个位置的打分由双向LSTM输出的pi和CRF的转移矩阵A决定;对所有的得分使用Softmax进行归一化后的概率:
其中,x为训练样本,分子上的y为正确的标注序列,对真实标记序列y的概率,得到损失函数:
使用梯度下降等优化方法来求解参数;
模型训练完毕,使用动态规划的Viterbi算法解码,求解最优路径:
y*=argmaxscore(x,y')
最终,将y*作为预测结果输出;
合并生成EDU。
2.如权利要求1所述的基于主述位理论的汉语基本篇章单元识别方法,其特征在于,每个词的归属,在主述位识别任务中,采用了BIE标签集合,将每个词标注为“B-X”、“I-X”、“E-X”;其中,“B-X”表示这个词所在片段属于X类型并且该词位于所在片段的开头,“I-X”表示这个词所在片段属于X类型并且该词位于所在片段的内部,“E-X”表示这个词所在片段属于X类型并且该词位于所在片段的结尾。
3.如权利要求1所述的基于主述位理论的汉语基本篇章单元识别方法,其特征在于,合并生成EDU包括:
确定主位、述位的位置后:
若主述位结构完整,基本篇章单元由相邻的主位和述位构成,据此确定一个基本篇章单元的位置;
对于连续出现多个述位,后续述位是包含隐式主位的EDU。
4.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1到3任一项所述方法的步骤。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1到3任一项所述方法的步骤。
6.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1到3任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910476073.0A CN110210033B (zh) | 2019-06-03 | 2019-06-03 | 基于主述位理论的汉语基本篇章单元识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910476073.0A CN110210033B (zh) | 2019-06-03 | 2019-06-03 | 基于主述位理论的汉语基本篇章单元识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110210033A CN110210033A (zh) | 2019-09-06 |
CN110210033B true CN110210033B (zh) | 2023-08-15 |
Family
ID=67790305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910476073.0A Active CN110210033B (zh) | 2019-06-03 | 2019-06-03 | 基于主述位理论的汉语基本篇章单元识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110210033B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111695341B (zh) * | 2020-06-16 | 2023-04-14 | 北京理工大学 | 一种基于篇章结构图卷积的隐式篇章关系分析方法和系统 |
CN113378547B (zh) * | 2021-06-16 | 2023-07-21 | 武汉大学 | 一种基于gcn的汉语复句隐式关系分析方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG49804A1 (en) * | 1996-03-20 | 1998-06-15 | Government Of Singapore Repres | Parsing and translating natural language sentences automatically |
WO2012039686A1 (en) * | 2010-09-24 | 2012-03-29 | National University Of Singapore | Methods and systems for automated text correction |
WO2016127677A1 (zh) * | 2015-02-13 | 2016-08-18 | 深圳市华傲数据技术有限公司 | 地址结构化方法及装置 |
CN105955956A (zh) * | 2016-05-05 | 2016-09-21 | 中国科学院自动化研究所 | 一种汉语隐式篇章关系识别方法 |
CN106445911A (zh) * | 2016-03-18 | 2017-02-22 | 苏州大学 | 一种基于微观话题结构的指代消解方法及系统 |
CN107273358A (zh) * | 2017-06-18 | 2017-10-20 | 北京理工大学 | 一种基于管道模式的端到端英文篇章结构自动分析方法 |
-
2019
- 2019-06-03 CN CN201910476073.0A patent/CN110210033B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG49804A1 (en) * | 1996-03-20 | 1998-06-15 | Government Of Singapore Repres | Parsing and translating natural language sentences automatically |
WO2012039686A1 (en) * | 2010-09-24 | 2012-03-29 | National University Of Singapore | Methods and systems for automated text correction |
WO2016127677A1 (zh) * | 2015-02-13 | 2016-08-18 | 深圳市华傲数据技术有限公司 | 地址结构化方法及装置 |
CN106445911A (zh) * | 2016-03-18 | 2017-02-22 | 苏州大学 | 一种基于微观话题结构的指代消解方法及系统 |
CN105955956A (zh) * | 2016-05-05 | 2016-09-21 | 中国科学院自动化研究所 | 一种汉语隐式篇章关系识别方法 |
CN107273358A (zh) * | 2017-06-18 | 2017-10-20 | 北京理工大学 | 一种基于管道模式的端到端英文篇章结构自动分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110210033A (zh) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108763510B (zh) | 意图识别方法、装置、设备及存储介质 | |
CN108628828B (zh) | 一种基于自注意力的观点及其持有者的联合抽取方法 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN110532328B (zh) | 一种文本概念图构造方法 | |
CN113743097B (zh) | 基于跨度共享和语法依存关系增强的情感三元组抽取方法 | |
Mabona et al. | Neural generative rhetorical structure parsing | |
CN113377897B (zh) | 基于深度对抗学习的多语言医疗术语规范标准化系统及方法 | |
CN112417854A (zh) | 中文文档抽取式摘要方法 | |
CN112183094A (zh) | 一种基于多元文本特征的中文语法查错方法及系统 | |
CN117076653A (zh) | 基于思维链及可视化提升上下文学习知识库问答方法 | |
CN112541356A (zh) | 一种生物医学命名实体识别的方法和系统 | |
CN111159412A (zh) | 分类方法、装置、电子设备及可读存储介质 | |
CN113312922B (zh) | 一种改进的篇章级三元组信息抽取方法 | |
CN112765956A (zh) | 基于多任务学习的依存句法分析方法及应用 | |
CN112541337A (zh) | 一种基于递归神经网络语言模型的文档模板自动生成方法及系统 | |
CN110210033B (zh) | 基于主述位理论的汉语基本篇章单元识别方法 | |
CN115390806A (zh) | 基于双模态联合建模的软件设计模式推荐方法 | |
CN104317882A (zh) | 一种决策级中文分词融合方法 | |
Chou et al. | Boosted web named entity recognition via tri-training | |
Xue et al. | A method of chinese tourism named entity recognition based on bblc model | |
CN113901813A (zh) | 一种基于主题特征和隐式句子结构的事件抽取方法 | |
Sagae et al. | Clustering words by syntactic similarity improves dependency parsing of predicate-argument structures | |
Ahmad et al. | Machine and deep learning methods with manual and automatic labelling for news classification in bangla language | |
CN115952794A (zh) | 融合双语敏感词典和异构图的汉泰跨语言敏感信息识别方法 | |
Liao et al. | The sg-cim entity linking method based on bert and entity name embeddings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |