CN108681538A - 一种基于深度学习的动词短语省略消解方法 - Google Patents
一种基于深度学习的动词短语省略消解方法 Download PDFInfo
- Publication number
- CN108681538A CN108681538A CN201810523282.1A CN201810523282A CN108681538A CN 108681538 A CN108681538 A CN 108681538A CN 201810523282 A CN201810523282 A CN 201810523282A CN 108681538 A CN108681538 A CN 108681538A
- Authority
- CN
- China
- Prior art keywords
- phrase
- word
- sentence
- leading
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
一种基于深度学习的动词短语省略消解方法,它属于计算机人工智能技术领域。本发明解决了现有动词短语省略消解方法存在的触发词判断和先行短语识别准确率低的问题。本发明对确定好的数据集1和数据集2进行预处理;判断触发词的过程加入了对句子上下文特征和句子级特征的提取,将提取的句子特征转化为向量输入支持向量机,进而根据支持向量机的输出结果确定输入句子的触发词;最后利用多层感知机,从触发词生成的多个候选先行短语中识别出正确的先行短语。本发明提取句子特征时加入了上下文特征和句子级特征,可以使触发词判断的准确率达到90%左右,先行短语识别的准确率达到85%以上。本发明可以应用于计算机人工智能技术领域用。
Description
技术领域
本发明属于计算机人工智能技术领域,具体涉及一种基于深度学习的动词短语省略消解方法。
背景技术
聊天机器人是一种利用自然语言处理技术来模拟人类交流并和人类进行对话的计算机程序。聊天机器人的起源最早可以追溯到1950年图灵在《Mind》上发表的文章《Computing Machinery and Intelligence》,该文提出了经典的“图灵测试”(TuringTest),这一测试数十年来一直被视为计算机人工智能的终极目标。在聊天机器人中,多轮对话聊天是一个核心模块。动词短语省略是省略了口头组成部分的照应性结构。在英语中,动词短语省略的实例由两部分组成:触发词和先行短语。触发词,通常是辅助或模态动词,表示动词短语省略现象的存在。先行短语,是被消解元素指代的动词短语(Bos和Spenader,2011;Dalrymple等人,1991)。例如,“The government includes money spent onresidential renovation;Dodge does not”,触发词“does”指代的是先前的短语“includes money spent on residential renovation”。
动词短语省略消解对于对话任务特别重要,例如在非正式的对话中,动词短语省略经常出现。大多数当前的对话系统忽略动词短语省略,并通过从句子的浅层依赖分析中读取信息来派生出一些结构化的语义表示。这种方法不仅会漏掉消岐动词及其参数之间的许多有效联系,而且如果直接应用于辅助触发词,也可能产生无意义的提取。在上面的例子中,一个不完善的方法可能会产生一个无益的语义三元组,如(Dodge,agent,do)。
目前已经有一些关于动词短语省略的实证研究(Hardt,1997;Nielsen,2005;Bosand Spenader,2011;Bos,2012;Liu et al.,2016)。但是许多先前的方法仅限于解决动词短语省略的特定子类问题。例如,由do触发的动词短语省略(Bos,2012),或者依靠简单的启发式方法来解决动词短语省略消解问题,例如通过选择最近的触发词之前的从句来作为先行短语。(Kian et al.2016)开发了一个动词短语省略消解流水线,将任务分成两个步骤。第一步,检测是否存在动词短语省略,并且找出触发词;第二步,先行短语识别,识别出包含先行短语的从句以及确定先行短语的确切边界(边界往往难以界定)。(Kian et al.2016)将早期工作中丰富的语言学分析和Margin-Infused-Relaxed-Algorithm运用到动词短语省略消解中,并且将动词短语省略消解任务分成了两步:检测是否存在动词短语省略,并找出触发词和识别先行短语,但他们只是使用了简单的机器学习方法,触发词判断和先行短语识别的准确率较低。
发明内容
本发明的目的是为解决现有动词短语省略消解方法中存在的触发词判断和先行短语识别准确率低的问题。
本发明为解决上述技术问题采取的技术方案是:
一种基于深度学习的动词短语省略消解的方法,该方法的具体步骤为:
步骤一、确定数据集1和数据集2中包含的句子;
对数据集1中句子进行预处理时,得到OpenNMT编码器;
对数据集2中句子进行预处理时,将每个句子中的各动词短语和形容词短语依次作为该句的候选先行短语,对应的将该句分成候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分;
步骤二、提取数据集2句子的助动词特征、句法特征、上下文特征和句子级特征,并将提取特征转化为标明正例和负例的输入向量;支持向量机对所述输入向量分类,根据支持向量机的输出结果判断句子的触发词;
步骤三、将数据集2句子的候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机;
多层感知机使用OpenNMT编码器获取候选先行短语、候选先行短语之前部分和选先行短语之后部分的句子级向量表示,使用字级别表示词向量模型得到触发词的字级别向量表示,以识别动词短语省略现象中的先行短语。
本发明的有益效果是:本发明提供了一种基于深度学习的动词短语省略消解的方法,本发明对确定好的数据集1和数据集2中的句子分别进行预处理过程,在现有方法的基础上,本发明加入了对句子上下文特征和句子级特征的提取,将提取的句子特征转化为向量输入支持向量机,进而根据支持向量机的输出结果确定输入句子的触发词;最后将输入句子的候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机来识别动词短语省略现象中的先行短语。本发明提取句子特征时加入了上下文特征和句子级特征,可以使触发词判断的准确率达到90%左右,先行短语识别的准确率达到85%以上。
本发明对存在动词短语省略现象句子的触发词的判断和先行短语的识别的准确率提高起到很好的作用。
附图说明
图1为本发明所述的一种基于深度学习的动词短语省略消解的方法流程图;
图2为本发明所述的将句子分成先行短语、先行短语之前部分、先行短语之后部分和触发词的一个英文示例;
图3为本发明所述的识别先行短语模型的工作示意图;
图4为本发明向量相加方法的示意图;
图5为本发明递归神经网络方法的示意图;
其中,hq是OpenNMT编码器最后一个时刻的隐层输出;
图6为本发明含有注意力机制的递归神经网络方法的示意图;
其中和vq分别为短语中第一个词的词向量、第二个词的词向量和最后一个词的词向量。
具体实施方式
下面结合附图对本发明的技术方案作进一步的说明,但并不局限于此,凡是对本发明技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,均应涵盖在本发明的保护范围中。
具体实施方式一:本实施方式所述的一种基于深度学习的动词短语省略消解的方法,该方法的具体步骤为:
步骤一、确定数据集1(Penn Treebank 2Wall Street Journal)和数据集2(Anannotated corpus for the analysis of VP ellipsis By Johan Bos and JenniferSpenader)中包含的句子;
对数据集1中句子进行预处理时,得到OpenNMT编码器;
对数据集2中句子进行预处理时,将每个句子中的各动词短语和形容词短语依次作为该句的候选先行短语,对应的将该句分成候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分;
步骤二、提取数据集2句子的助动词特征、句法特征、上下文特征和句子级特征,并将提取特征转化为标明正例和负例的输入向量;支持向量机对所述输入向量分类,根据支持向量机的输出结果判断句子的触发词;
步骤三、将数据集2句子的候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机;
多层感知机使用OpenNMT编码器获取候选先行短语、候选先行短语之前部分和选先行短语之后部分的句子级向量表示,使用字级别表示词向量模型得到触发词的字级别向量表示,以识别动词短语省略现象中的先行短语。
本实施方式中的数据集1主要用来得到OpenNMT编码器和字级别表示词向量模型,然后利用OpenNMT编码器来获取候选先行短语、候选先行短语之前部分和候选先行短语之后部分的句子级向量表示;利用字级别表示词向量模型得到触发词的字级别向量表示。
在现有技术的基础上,对输入句子特征提取时加入了上下文特征和句子级特征,上下文特征用来判断助词和动词;句子级特征用来判断整句是否含有以下结构;
上下文特征如下:
◇当前词是否是触发词常见词
◇当前词的前面第3个词的词性
◇当前词的前面第2个词的词性
◇当前词的前面第1个词的词性
◇当前词的词性
◇当前词的后面第1个词的词性
◇当前词的后面第2个词的词性
◇当前词的后面第3个词的词性
◇当前词前一个词是否是触发词前一个词常出现的词
◇当前词后一个词是否是触发词后一个词常出现的词
句子级特征如下:
◇,/.so/So/or/nor/but/while[XXX]do/to/did/does◇as[XXX]were/do/does/did
◇than[XXX]do/is/had/has
◇,/.have[XXX],/.
◇[XXX]wasn’t/would/do/might/have to[XXX],/.
◇从句all the/the way/that/who/and[XXX]does/will/can
◇the same[XXX]do
◇doing/do[XXX]the same/so◇If it is/does/isn’t
具体实施方式二:本实施方式对实施方式一所述的一种基于深度学习的动词短语省略消解的方法进行进一步的限定,步骤一的数据集2(An annotated corpus for theanalysis of VP ellipsis By Johan Bos and Jennifer Spenader)中的数据由JohanBos和Jennifer Spenader提供先行短语和触发词标注,且数据集2中的句子均存在动词短语省略现象。
本实施方式中的数据集2中的句子均存在动词短语省略现象,以用于训练步骤二的触发词判断模型和步骤三的先行短语识别模型。其中Johan Bos和Jennifer Spenader为数据集2出自的英文文献(An annotated corpus for the analysis of VP ellipsis ByJohan Bos and Jennifer Spenader)的作者的名字。
具体实施方式三:本实施方式对实施方式二所述的一种基于深度学习的动词短语省略消解的方法进行进一步的限定,本实施方式中的步骤一对数据集1和数据集2进行预处理的过程为:
利用NLTK工具中的word_tokenize对数据集1中句子进行分词处理;利用OpenNMT-py训练数据集1的分词处理结果,得到OpenNMT编码器;
所述OpenNMT编码器有两个输出,其中一个输出为最后一个词对应的隐层状态输出,另一个输出为每个词对应的隐层状态输出;
提取Johan Bos和Jennifer Spenader标注后的数据集2,利用BIOEST对提取的数据集2中每个句子进行标注,并将每个标注句子分成先行短语、先行短语之前部分、先行词短语之后部分和触发词四个部分,将先行短语、先行短语之前部分、先行词短语之后部分和触发词作为对应句子的正例;
利用berkeley parser对标注后数据集2的句子语法分析处理,得到每个句子对应的语法树,采用NLTK工具的tree方法提取每棵语法树的语法结构,抽取每个句子的所有动词短语和形容词短语,以分别作为对应句子的候选先行短语,将对应句子分成候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分,并将其中与正例不同的情况作为负例。
数据集2中的数据为500句,数据集1中的数据量为49174句,以避免影响实验效果。由于OpenNMT验证集输入通常不超过5000句,本项技术对所有句子进行了10折交叉验证训练,最终得到了10个OpenNMT编码器,本发明对OpenNMT开源代码进行修改,使之能够输出句子的中间表示而不是目标语言。如图2所示,为本发明将句子分成先行短语、先行短语之前部分、先行短语之后部分和触发词四个部分的一个英文示例图。
BIOEST标注方法如下:将触发词标注为T(Trigger),对于先行短语只有一个词的情况,将其标注为S(Single);否则用BIE来标注先行短语,即开始的第一个词标注为B(Begin),最后一个词标注为E(End),中间的词标注为I(In)。除触发词和先行短语之外的词标注为O(Other)。
具体实施方式四:本实施方式对实施方式三所述的一种基于深度学习的动词短语省略消解的方法进行进一步的限定,本实施方式中的步骤二判断数据集2中句子的触发词的具体过程为:
将数据集2的每个句子中所有动词和常见触发词依次作为该句的当前词,对应的分别提取该句子的助动词特征、句法特征、上下文特征和句子级特征,以得到对应的31维长度的向量作为x值,数据正例和负例标签作为y值,即若当前词为预处理过程中标注的触发词,则y值为1,否则y值为0;将(x,y)作为输入向量输入支持向量机;
利用Python的random库将输入向量(x,y)的集合随机分成5份,其中4份作为训练集数据,1份作为测试集数据;
将SVC的核函数设置为kbf,使用SVC的fit方法拟合训练集数据,获得训练后的SVC模型clf,调用clf的predict方法,得到测试集数据的预测标签y’,调用sklearn的classification_report方法,利用测试数据的真实标签y和预测的标签y’作为参数,通过精确率、召回率和F1值评价模型,经过训练测试确定SVC的最佳参数为核函数设置为kbf、C值设置为100、gamma值设置为0.5;
若支持向量机输出的分类结果为1,则表示对应句子的触发词就是当前词;若支持向量机输出的分类结果为0,则当前词不是对应句子的触发词。
本实施方式中SVC的C值设置为0.1,1,10,100,1000或10000,gamma值设置为0.8,0.5,0.1,0.01,0.001,将SVC的C值和gamma值交叉组合使用;利用指标P(精确率)值、R(召回率)值和F1值评价模型的评估结果。
最终,多轮训练测试确定SVC最佳参数为核函数设置为kbf、C值设置为100、gamma值设置为0.5,经过多次训练测试可以保证检测模型的准确性;在该套参数下,本发明在动词短语省略消解的判断触发词上超越了现有方法所取得的实验效果。
具体实施方式五:本实施方式对实施方式四所述的一种基于深度学习的动词短语省略消解的方法进行进一步的限定,本实施方式中的步骤三的具体过程为:
将当前候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词输入多层感知机之前,利用OpenNMT编码器分别处理当前候选先行短语、候选先行短语之前部分和候选先行短语之后部分,利用向量相加、递归神经网络或含有注意力机制的递归神经网络方法,得出当前候选先行短语、候选先行短语之前部分和候选先行短语之后部分的句子级向量表示;
利用fasttext工具对数据集1进行训练,得到数据集1的字级别表示词向量模型;对输入的每一个词,该模型可以输出对应词的词向量;即对于输入词为触发词的情况,该模型将输出该触发词的字级别向量表示;
将各部分的句子级向量表示和触发词的字级别向量表示联合输入多层感知机;若多层感知机的分类结果为1,则当前候选先行短语是动词短语省略消解中省略的先行短语,若多层感知机的分类结果为0,则依次将步骤一中的每个候选先行短语,以及与其相对应的候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机,直至识别出动词短语省略现象中的先行短语。
获取当前候选先行短语的句子级别向量表示时,利用了数据预处理过程中得到的OpenNMT编码器,同时通过使用fasttext工具对数据集1进行训练,得到词向量模型,再通过该词向量模型获取触发词的字级别向量表示。如图3所示,为本实施方式识别先行短语模型的工作流程。
识别先行短语过程中,可以将任一组候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词联合输入多层感知机,以判断该组的候选先行短语是否是省略的先行短语,如果不是,可以依次将其他候选先行短语输入多层感知机,直至找到该句中省略的先行短语。
具体实施方式六:本实施方式对实施方式五所述的一种基于深度学习的动词短语省略消解的方法进行进一步的限定,所述向量相加方法是将短语中每个词的词向量累加结果作为该短语的向量表示;
递归神经网络方法是将每个词输入,取递归神经网络最后一个词隐层输出作为该短语的向量表示;
含有注意力机制的递归神经网络方法是利用每个输入词隐层状态的输出,并计算对应的权重,用计算得到的权重乘以每个输入词隐层状态输出,最后累加得到的结果作为短语的向量表示;计算过程如下:
其中,Si表示第i个输入词和最后一个输入词的相似度,wi为第i个输入词,i=0,1,…,n-1,q是该短语的最后一个输入词,||·||表示二范数;
ai为第i个输入词的权重,exp表示指数函数,Sj表示第j个输入词和最后一个输入词的相似度,j=0,1,…,n-1,Sq表示最后一个输入词和自身的相似度;
aq是最后一个输入词的权重,
venc表示最后得到的短语向量表示,ci表示OpenNMT编码器第i个输入词对应的隐层状态输出(context),cq表示OpenNMT编码器最后一个输入词对应的隐层状态输出(context)。
实施例
测试数据集方面,数据采用Penn Treebank 2Wall Street Journal和Anannotated corpus for the analysis of VP ellipsis By Johan Bos and JenniferSpenader提供的数据集。
评价标准方面,动词短语省略消解任务中的判断触发词相关实验使用了准确率作为评价指标,如表1所示,为判断触发词的实验结果;可以看出,本发明加入了句子级特征和上下文特征时,触发词判断的准确率达到90%左右。
表1
识别先行短语相关实验使用了准确率作为评价指标,如表2所示,为识别先行短语的实验结果;表2分别给出了本发明的三种向量表示方法对应的识别先行短语准确率,可以看出加入了句子级特征和上下文特征的含有注意力机制的RNN的识别准确率达到85%以上。
表2
整体端到端系统相关实验使用了P、R、F1作为评价指标,如表3所示,为端到端的实验结果。
表3
从表3中可以看出,本发明的向量相加(sumpooling)方法,加入上下文特征和句子级特征的向量相加(sumpooling)方法,递归神经网络(RNN)方法,加入上下文特征和句子级特征的递归神经网络(RNN)方法,含有注意力机制(attention)的递归神经网络(RNN)方法,加入上下文特征和句子级特征的含有注意力机制(attention)的递归神经网络(RNN)方法,P值、R值和F1值均高于现有方法。
术发明可以直接应用于开放域的聊天机器人系统中,是一个聊天机器人的核心模块。本专利技术的应用载体是哈尔滨工业大学社会计算与信息检索研究中心开发的聊天机器人“笨笨”。中控模块将输入以及控制权交给动词短语省略消解模块,该模块根据输入判断是否存在动词短语省略,若存在则预测触发词和先行词或短语,然后该模块将输入、触发词、先行词或短语和控制权交回给中控模块,完成一次动词短语省略消解任务。
从部署方式上来讲,该项技术可以独立作为一个计算节点,部署于阿里云或者美团云等云计算平台上,与其它模块之间的通讯可以通过绑定IP地址和端口号的方式进行。
该技术的具体实现上,因为使用了深度学习相关技术,所以需要使用相应的深度学习框架:本技术的相关实验基于开源框架Pytorch实现。如果有需要,可以换做其它框架,比如同样开源的tensorflow,或者企业内部使用的PadlePadle等。
Claims (6)
1.一种基于深度学习的动词短语省略消解的方法,其特征在于,该方法的具体步骤为:
步骤一、确定数据集1和数据集2中包含的句子;
对数据集1中句子进行预处理时,得到OpenNMT编码器;
对数据集2中句子进行预处理时,将每个句子中的各动词短语和形容词短语依次作为该句的候选先行短语,对应的将该句分成候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分;
步骤二、提取数据集2句子的助动词特征、句法特征、上下文特征和句子级特征,并将提取特征转化为标明正例和负例的输入向量;支持向量机对所述输入向量分类,根据支持向量机的输出结果判断句子的触发词;
步骤三、将数据集2句子的候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机;
多层感知机使用OpenNMT编码器获取候选先行短语、候选先行短语之前部分和选先行短语之后部分的句子级向量表示,使用字级别表示词向量模型得到触发词的字级别向量表示,以识别动词短语省略现象中的先行短语。
2.根据权利要求1所述的一种基于深度学习的动词短语省略消解的方法,其特征在于,所述步骤一的数据集2中的数据由Johan Bos和Jennifer Spenader提供先行短语和触发词标注,且数据集2中的句子均存在动词短语省略现象。
3.根据权利要求2所述的一种基于深度学习的动词短语省略消解的方法,其特征在于,所述步骤一对数据集1和数据集2的预处理过程为:
利用NLTK工具中的word_tokenize对数据集1中句子进行分词处理;利用OpenNMT-py训练数据集1的分词处理结果,得到OpenNMT编码器;
所述OpenNMT编码器有两个输出,其中一个输出为最后一个词对应的隐层状态输出,另一个输出为每个词对应的隐层状态输出;
提取Johan Bos和Jennifer Spenader标注后的数据集2,利用BIOEST对提取的数据集2中每个句子进行标注,并将每个标注句子分成先行短语、先行短语之前部分、先行词短语之后部分和触发词四个部分,将先行短语、先行短语之前部分、先行词短语之后部分和触发词作为对应句子的正例;
利用berkeley parser对标注后数据集2的句子语法分析处理,得到每个句子对应的语法树,采用NLTK工具的tree方法提取每棵语法树的语法结构,抽取每个句子的所有动词短语和形容词短语,以分别作为对应句子的候选先行短语,将对应句子分成候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词四个部分,并将其中与正例不同的情况作为负例。
4.根据权利要求3所述的一种基于深度学习的动词短语省略消解的方法,其特征在于,所述步骤二判断数据集2中句子的触发词的具体过程为:
将数据集2的每个句子中所有动词和常见触发词依次作为该句的当前词,对应的分别提取该句子的助动词特征、句法特征、上下文特征和句子级特征,以得到对应的31维长度的向量作为x值,数据正例和负例标签作为y值,即若当前词为预处理过程中标注的触发词,则y值为1,否则y值为0;
将(x,y)作为输入向量输入支持向量机;
利用Python的random库将输入向量(x,y)的集合随机分成5份,其中4份作为训练集数据,1份作为测试集数据;
将SVC的核函数设置为kbf,使用SVC的fit方法拟合训练集数据,获得训练后的SVC模型clf,调用clf的predict方法,得到测试集数据的预测标签y’,调用sklearn的classification_report方法,利用测试数据的真实标签y和预测的标签y’作为参数,通过精确率、召回率和F1值评价模型,经过训练测试确定SVC的最佳参数为核函数设置为kbf、C值设置为100、gamma值设置为0.5;
若支持向量机输出的分类结果为1,则表示对应句子的触发词就是当前词;若支持向量机输出的分类结果为0,则当前词不是对应句子的触发词。
5.根据权利要求4所述的一种基于深度学习的动词短语省略消解的方法,其特征在于,所述步骤三的具体过程为:
将当前候选先行短语、候选先行短语之前部分、候选先行短语之后部分和触发词输入多层感知机之前,利用OpenNMT编码器分别处理当前候选先行短语、候选先行短语之前部分和候选先行短语之后部分,利用向量相加、递归神经网络或含有注意力机制的递归神经网络方法,得出当前候选先行短语、候选先行短语之前部分和候选先行短语之后部分的句子级向量表示;
利用fasttext工具对数据集1进行训练,得到数据集1的字级别表示词向量模型;对输入的每一个词,该模型可以输出对应词的词向量;即对于输入词为触发词的情况,该模型将输出该触发词的字级别向量表示;
将各部分的句子级向量表示和触发词的字级别向量表示联合输入多层感知机;若多层感知机的分类结果为1,则当前候选先行短语是动词短语省略消解中省略的先行短语,若多层感知机的分类结果为0,则依次将步骤一中的每个候选先行短语,以及与其相对应的候选先行短语之前部分、候选先行短语之后部分和触发词四个部分输入多层感知机,直至识别出动词短语省略现象中的先行短语。
6.根据权利要求5所述的一种基于深度学习的动词短语省略消解的方法,其特征在于,所述向量相加方法是将短语中每个词的词向量累加结果作为该短语的向量表示;
递归神经网络方法是将每个词输入,取递归神经网络最后一个词隐层输出作为该短语的向量表示;
含有注意力机制的递归神经网络方法是利用每个输入词隐层状态的输出,并计算对应的权重,用计算得到的权重乘以每个输入词隐层状态输出,最后累加得到的结果作为短语的向量表示;计算过程如下:
其中,Si表示第i个输入词和最后一个输入词的相似度,wi为第i个输入词,i=0,1,…,n-1,q是该短语的最后一个输入词,||·||表示二范数;
ai为第i个输入词的权重,exp表示指数函数,Sj表示第j个输入词和最后一个输入词的相似度,j=0,1,…,n-1,Sq表示最后一个输入词和自身的相似度;
aq是最后一个输入词的权重,
其中:venc表示最后得到的短语向量表示,ci表示OpenNMT编码器第i个输入词对应的隐层状态输出,cq表示OpenNMT编码器最后一个输入词对应的隐层状态输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810523282.1A CN108681538B (zh) | 2018-05-28 | 2018-05-28 | 一种基于深度学习的动词短语省略消解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810523282.1A CN108681538B (zh) | 2018-05-28 | 2018-05-28 | 一种基于深度学习的动词短语省略消解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108681538A true CN108681538A (zh) | 2018-10-19 |
CN108681538B CN108681538B (zh) | 2022-02-22 |
Family
ID=63808627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810523282.1A Active CN108681538B (zh) | 2018-05-28 | 2018-05-28 | 一种基于深度学习的动词短语省略消解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108681538B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670168A (zh) * | 2018-11-14 | 2019-04-23 | 华南师范大学 | 基于特征学习的短答案自动评分方法、系统及存储介质 |
CN109871443A (zh) * | 2018-12-25 | 2019-06-11 | 杭州茂财网络技术有限公司 | 一种基于记账场景的短文本分类方法及装置 |
CN110309511A (zh) * | 2019-07-04 | 2019-10-08 | 哈尔滨工业大学 | 基于共享表示的多任务语言分析系统及方法 |
CN111428055A (zh) * | 2020-04-20 | 2020-07-17 | 神思电子技术股份有限公司 | 一种面向行业的上下文省略问答方法 |
CN113486220A (zh) * | 2021-07-28 | 2021-10-08 | 平安国际智慧城市科技股份有限公司 | 动词短语成分标注方法、装置、电子设备及存储介质 |
CN114722774A (zh) * | 2022-04-07 | 2022-07-08 | 平安科技(深圳)有限公司 | 数据压缩方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140258954A1 (en) * | 2013-03-06 | 2014-09-11 | Synopsys, Inc. | Ranking verification results for root cause analysis |
CN105512209A (zh) * | 2015-11-28 | 2016-04-20 | 大连理工大学 | 一种基于特征自动学习的生物医学事件触发词识别方法 |
CN107402913A (zh) * | 2016-05-20 | 2017-11-28 | 腾讯科技(深圳)有限公司 | 先行词的确定方法和装置 |
-
2018
- 2018-05-28 CN CN201810523282.1A patent/CN108681538B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140258954A1 (en) * | 2013-03-06 | 2014-09-11 | Synopsys, Inc. | Ranking verification results for root cause analysis |
CN105512209A (zh) * | 2015-11-28 | 2016-04-20 | 大连理工大学 | 一种基于特征自动学习的生物医学事件触发词识别方法 |
CN107402913A (zh) * | 2016-05-20 | 2017-11-28 | 腾讯科技(深圳)有限公司 | 先行词的确定方法和装置 |
Non-Patent Citations (2)
Title |
---|
屈锦春: "中文代词消解关键技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
轩小星等: "中文事件触发词的自动抽取研究", 《计算机与数字工程》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670168A (zh) * | 2018-11-14 | 2019-04-23 | 华南师范大学 | 基于特征学习的短答案自动评分方法、系统及存储介质 |
CN109670168B (zh) * | 2018-11-14 | 2023-04-18 | 华南师范大学 | 基于特征学习的短答案自动评分方法、系统及存储介质 |
CN109871443A (zh) * | 2018-12-25 | 2019-06-11 | 杭州茂财网络技术有限公司 | 一种基于记账场景的短文本分类方法及装置 |
CN110309511A (zh) * | 2019-07-04 | 2019-10-08 | 哈尔滨工业大学 | 基于共享表示的多任务语言分析系统及方法 |
CN110309511B (zh) * | 2019-07-04 | 2022-12-09 | 哈尔滨工业大学 | 基于共享表示的多任务语言分析系统及方法 |
CN111428055A (zh) * | 2020-04-20 | 2020-07-17 | 神思电子技术股份有限公司 | 一种面向行业的上下文省略问答方法 |
CN111428055B (zh) * | 2020-04-20 | 2023-11-10 | 神思电子技术股份有限公司 | 一种面向行业的上下文省略问答方法 |
CN113486220A (zh) * | 2021-07-28 | 2021-10-08 | 平安国际智慧城市科技股份有限公司 | 动词短语成分标注方法、装置、电子设备及存储介质 |
CN113486220B (zh) * | 2021-07-28 | 2024-01-23 | 平安国际智慧城市科技股份有限公司 | 动词短语成分标注方法、装置、电子设备及存储介质 |
CN114722774A (zh) * | 2022-04-07 | 2022-07-08 | 平安科技(深圳)有限公司 | 数据压缩方法、装置、电子设备及存储介质 |
CN114722774B (zh) * | 2022-04-07 | 2024-01-30 | 平安科技(深圳)有限公司 | 数据压缩方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108681538B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108681538A (zh) | 一种基于深度学习的动词短语省略消解方法 | |
CN109597994B (zh) | 短文本问题语义匹配方法和系统 | |
CN112231472B (zh) | 融入领域术语词典的司法舆情敏感信息识别方法 | |
CN108763931A (zh) | 基于Bi-LSTM和文本相似性的漏洞检测方法 | |
CN113268974B (zh) | 多音字发音标注方法、装置、设备及存储介质 | |
CN110717341B (zh) | 一种以泰语为枢轴的老-汉双语语料库构建方法及装置 | |
CN112711950A (zh) | 地址信息抽取方法、装置、设备及存储介质 | |
CN106682089A (zh) | 一种基于RNNs的短信自动安全审核的方法 | |
CN109783644A (zh) | 一种基于文本表示学习的跨领域情感分类系统及方法 | |
CN104317882B (zh) | 一种决策级中文分词融合方法 | |
CN112561718A (zh) | 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法 | |
CN112052319B (zh) | 一种基于多特征融合的智能客服方法及系统 | |
CN114996470A (zh) | 一种智能调度检修识别库构建方法 | |
CN113704410A (zh) | 情绪波动检测方法、装置、电子设备及存储介质 | |
Zhang et al. | A neural network approach to verb phrase ellipsis resolution | |
CN115905187B (zh) | 一种面向云计算工程技术人员认证的智能化命题系统 | |
CN113065352A (zh) | 一种电网调度工作文本的操作内容识别方法 | |
CN113220887B (zh) | 一种利用目标知识增强模型的情感分类方法 | |
CN113157866B (zh) | 一种数据分析方法、装置、计算机设备及存储介质 | |
CN114239555A (zh) | 一种关键词提取模型的训练方法及相关装置 | |
CN114818659B (zh) | 一种文本情感来源分析方法、系统及存储介质 | |
CN116756324B (zh) | 基于庭审音频的关联度挖掘方法、装置、设备及存储介质 | |
CN115587599B (zh) | 一种机器翻译语料的质量检测方法及装置 | |
CN112434516B (zh) | 一种融合正文文本信息的自适应评论情感分析系统及方法 | |
Bhargava et al. | Bits_Pilani@ INLI-FIRE-2017: Indian Native Language Identification using Deep Learning. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |