CN111460132B - 一种基于图卷积神经网络的生成式会议摘要方法 - Google Patents
一种基于图卷积神经网络的生成式会议摘要方法 Download PDFInfo
- Publication number
- CN111460132B CN111460132B CN202010163281.8A CN202010163281A CN111460132B CN 111460132 B CN111460132 B CN 111460132B CN 202010163281 A CN202010163281 A CN 202010163281A CN 111460132 B CN111460132 B CN 111460132B
- Authority
- CN
- China
- Prior art keywords
- conference
- node
- neural network
- sentence
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
一种基于图卷积神经网络的生成式会议摘要方法,本发明涉及基于图卷积神经网络的生成式会议摘要方法。本发明的目的是为了解决现有方法仅仅使用句子和词语的序列结构建模会议文本,忽略了会议丰富的对话篇章结构信息的问题。过程为:一:得到会议的对话篇章结构;二:构建会议篇章结构图,以及会议中句子之间的对话篇章结构;三:构建伪数据和对应的伪数据的会议篇章结构图;四:得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;得到训练好的图神经网络的生成式会议摘要模型和模型参数;利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。本发明用于自然语言处理领域下的生成式会议摘要方法。
Description
技术领域
本发明涉及基于图卷积神经网络的生成式会议摘要方法。
背景技术
基于自然语言处理—自动文本摘要(Automatic Summarization)[1](题目:Constructing literature abstracts by computer:techniques andprospects,作者:Chris D Paice,年份:1990年,文献引自Information Processing&Management)领域下的生成式会议摘要(Abstractive Meeting Summarization),即给定多人会议的文字记录,生成一段简短的、包含会议关键信息的文本描述,如图2(a),展示了一个会议片段及其对应的标准摘要。
对于会议摘要,现有方法可以分为抽取式(Extractive)与生成式(Abstractive)两类。抽取式方法从会议记录中选择重要的句子构成最终摘要,所有文本均来自于原文,保证了基本语法正确的同时,也存在连贯性差等问题[2](题目:Extracting decisions frommulti-party dialogue using directed graphical models and semantic similarity,作者:Trung H Bui,Matthew Frampton,John Dowding,and Stanley Peters,年份:2009年,文献引自:Proceedings ofthe SIGDIAL 2009Conference:The 10th Annual Meetingof the Special Interest Group on Discourse andDialogue)。生成式方法由模型生成摘要,可以生成不属于原文的词语和短语,更加流畅。近几年的研究大多集中于生成式会议摘要[3](题目:Keep meeting summaries on topic:Abstractive multi-modal meetingsummarization,作者:Manling Li,Lingyu Zhang,Heng Ji,and Richard J.Radke,年份:2019年,文献引自:Proceedings ofthe 57th Annual Meeting ofthe Association forComputational Linguistics)。然而,现有技术大多基于序列到序列(sequence-to-sequence)模型,将会议内容视为句子和词语的序列,利用序列编码器进行建模,尽管取得了一定的效果,但是依旧存在一定的不足,生成的摘要往往无法准确的理解会议内容,如图2(b),展示了基线模型Sentence-Gated[4](题目:Abstractive dialogue summarizationwith sentencegated modeling optimized by dialogue acts,作者:Chih-Wen Goo andYun-Nung Chen,年份:2018,文献引自:2018IEEE Spoken Language Technology Workshop(SLT))生成的摘要,与标准摘要对比,该模型没有准确的理解原文中句子3与句子1构成的“反驳”关系。仅仅使用句子和词语的序列结构建模会议文本,忽略了会议丰富的对话篇章结构信息,对话篇章结构表示了两句话之间的语义关系,例如“问答”、“反驳”、“赞同”等。
发明内容
本发明的目的是为了解决现有方法仅仅使用句子和词语的序列结构建模会议文本,忽略了会议丰富的对话篇章结构信息的问题,而提出一种融入对话篇章结构信息的生成式会议摘要方法。
一种基于图卷积神经网络的生成式会议摘要方法具体过程为:
步骤一:训练对话篇章结构解析器,并对会议数据进行标注,得到会议的对话篇章结构;
步骤二:对于会议数据集中每一条会议及根据步骤一得到的会议的对话篇章结构,构建会议篇章结构图,会议篇章结构图包括了会议中的所有句子,会议中的所有参与者,以及会议中句子之间的对话篇章结构;
将会议篇章结构图表示为GD=(VD,ED,RD),其中vi∈VD代表图节点,(vi,r,vj)∈ED代表图中边,r∈RD代表图中边关系;
步骤三:利用“问答”对话篇章结构构建伪数据和对应的伪数据的会议篇章结构图;
步骤四:利用步骤三构建好的伪数据和对应的伪数据的会议篇章结构图预训练基于图神经网络的生成式会议摘要模型,得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;
将步骤一得到的会议数据的对话篇章结构和步骤二得到的会议篇章结构图输入预训练好的图神经网络的生成式会议摘要模型进行训练,得到训练好的图神经网络的生成式会议摘要模型和模型参数;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。
本发明的有益效果为:
本发明引入对话篇章结构,将会议构建为一个对话篇章结构图,并利用图卷积神经网络建模整个会议,整个模型采用图到序列(graph-to-sequence)框架,生成最终会议摘要,可以更好的理解会议内容。除此以外,本发明还利用“问答”对话篇章结构构建伪数据,对模型进行预训练,可以隐式的增加训练数据,允许模型在真实数据上“热启动”。解决了现有生成式会议摘要仅采用序列方式建模会议,忽略了会议丰富的对话篇章结构信息的问题。如图2(c),展示了在引入对话篇章结构以后,本发明的模型生产的摘要。
在本发明方法进行实验后生成的摘要中,生成了包含关键信息的内容,并生成了与会议对话篇章结构相对应的描述文本,更好的概括了会议内容,显示了本发明方法的有效性,在评价指标ROUGE上本发明方法比之前的方法取得了更好的结果。ROUGE是一种基于召回率的相似性度量方法,是评估自动文摘以及机器翻译的一组指标,考察翻译的充分性和忠实性,值越高越好。ROUGE-1、ROUGE-2、ROUGE-L的计算分别涉及一元语法、二元语法和最长公共子序列。
附图说明
图1为本发明流程图;
图2(a)为一个会议片段记录及其对应的标准摘要示意图;
图2(b)为基线模型Sentence-Gated生成的摘要示意图;
图2(c)为本发明模型生成的摘要示意图;
图3(a)为会议片段及其标注好的对话篇章结构示意图;
图3(b)为Levi图转换示意图;
图4(a)为自连接边与全局连接边示意图;
图4(b)为正向入边与正向出边示意图;
图4(c)为反向入边与反向出边示意图;
图4(d)为对话篇章图示意图;
图5为伪数据构建英文示意图;
图6为本发明模型示意图。
具体实施方式
具体实施方式一:结合图1说明本实施方式,本实施方式一种基于图卷积神经网络的生成式会议摘要方法具体过程为:
步骤一:训练对话篇章结构解析器,并对会议数据进行标注,得到会议的对话篇章结构;
步骤二:对于会议数据集中每一条会议及根据步骤一得到的会议的对话篇章结构,构建会议篇章结构图,会议篇章结构图包括了会议中的所有句子,会议中的所有参与者,以及会议中句子之间的对话篇章结构;
将会议篇章结构图表示为GD=(VD,ED,RD),其中vi∈VD代表图节点,(vi,r,vj)∈ED代表图中边,r∈RD代表图中边关系;
步骤三:利用“问答”对话篇章结构构建伪数据和对应的伪数据的会议篇章结构图;
步骤四:利用步骤三构建好的伪数据和对应的伪数据的会议篇章结构图预训练基于图神经网络的生成式会议摘要模型,得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;
步骤三构建好的伪数据包括了“讨论”“问题”对,以及根据步骤三二得到的伪数据的会议篇章结构图,将“讨论”“问题”对和对应的伪数据的会议篇章结构图输入模型,预训练以后得到模型的初始化参数;
伪数据作为预训练数据,有两点优势:(1)隐式的增加了训练数据,(2)通过使用伪数据对基于图神经网络的生成式会议摘要模型进行预训练,可以给该模型一个热启动,使得该模型有一个较好地初始化参数;
将步骤一得到的会议数据的对话篇章结构和步骤二得到的会议篇章结构图输入预训练好的图神经网络的生成式会议摘要模型进行训练,得到训练好的图神经网络的生成式会议摘要模型和模型参数;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤一中训练对话篇章结构解析器,并对会议数据进行标注,得到会议的对话篇章结构;具体过程为:
步骤一一、利用现有STAC数据集[5](题目:Discourse structure and dialogueacts in multiparty dialogue:The stac corpus,作者:Nicholas Asher,Julie Hunter,Mathieu Morey,Farah Benamara,and Stergos Afantenos,年份:2016)训练现有对话篇章结构解析器Deep Sequential[6](题目:Adeep sequential model for discourse parsingon multi-party dialogues,作者:Zhouxing Shi and Minlie Huang,时间:2019年,文献引自:Proceedings oftheAAAI Conference onArtificial Intelligence),得到训练好的对话篇章结构解析器Deep Sequential;
步骤一二、利用训练好的对话篇章结构解析器Deep Sequential对AMI会议数据进行对话篇章结构的标注,得到AMI会议的对话篇章结构。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤一一中利用现有STAC数据集训练现有对话篇章结构解析器Deep Sequentia,得到训练好的对话篇章结构解析器Deep Sequential;具体过程为:
STAC数据集为英文游戏多人聊天数据集,该语料标注了对话中基本语义单元(EDU)之间的语义关系;
所述多人为3人及以上。
根据统计,STAC中共含有1091个对话,10677个基本语义单元,11348个关系实例;
根据任务定义,每个对话至少有3名讲者参与其中。每名讲者每次发送的消息通常为1~2句话,在多人对话语篇解析中每句话通常作为一个基本语义单元(EDU)。基本语义单元(EDU)与基本语义单元(EDU)之间的篇章语义关系共分类16类,分别是:Comment(评论)、Clarification_question(澄清问题)、Elaboration(详述)、Acknowledgement(致谢)、Continuation(延续)、Explanation(解释)、Conditional(条件)、Question-answer_pair(问答对)、Alternation(交替)、Q-Elab(问题详述)、Result(结果)、Background(背景)、Narration(叙述)、Correction(纠正)、Parallel(平行)和Contrast(对比);
本发明的实验具体在AMI[7]会议数据集(题目:The ami meeting corpus:A pre-announcement,作者:Jean Carletta,SimoneAshby,Sebastien Bourban,Mike Flynn,MaelGuillemot,Thomas Hain,Jaroslav Kadlec,Vasilis Karaiskos,Wessel Kraaij,MelissaKronenthal,et al,年份:2005,文献引自:International workshop on machinelearning for multimodal interaction)上进行,该数据集为会议数据集,包含了四个参与者,分别是:项目经理,营销专家,工业设计师,用户界面设计师。四位参与者针对一款产品开发进行讨论。该数据集包含了137个会议,本发明按照前人的方法,将其划分为训练集(97个会议)、开发集(20个会议)和测试集(20个会议)。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是,所述步骤一二中利用训练好的对话篇章结构解析器Deep Sequential对AMI会议数据进行对话篇章结构的标注,得到AMI会议的对话篇章结构;具体过程为:
AMI会议数据为会议数据集,包含了四个参与者,分别是:项目经理,营销专家,工业设计师,用户界面设计师;四位参与者针对一款产品开发进行讨论;
AMI会议数据集包含了137个会议,将AMI会议数据集划分为训练集(97个会议)、开发集(20个会议)和测试集(20个会议);
训练好的对话篇章结构解析器Deep Sequential模型首先判断AMI会议中的两句话之间是否有关系,例如:对于句子A和句子B,将两句话输入DeepSequential模型之中,该模型首先判断两句话是否有关系,输出有关系或者无关系。如果句子A和B有关系,DeepSequential模型继续判断是哪一种关系,关系属于评论、澄清问题、详述、致谢、延续、解释、条件、问答对、交替、问题详述、结果、背景、叙述、纠正、平行和对比16种关系中的一种;通过上述步骤最终得到两个句子之间的关系;
对会议数据进行标注,得到AMI会议的对话篇章结构;
如果句子A和B没有关系,就不进行标注。
标注结果如图3(a)所示,示例中包含了四个句子U1,U2,U3和U4,其中U2和U1构成了“问答”关系,U3和U1构成了“延续”关系,U4和U2构成了“解释”关系。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:所述步骤二中对于会议数据集中每一条会议及根据步骤一得到的会议的对话篇章结构,构建会议篇章结构图,会议篇章结构图包括了会议中的所有句子,会议中的所有参与者,以及会议中句子之间的对话篇章结构;
将会议篇章结构图表示为GD=(VD,ED,RD),其中vi∈VD代表图节点,(vi,r,vj)∈ED代表图中边,r∈RD代表图中边关系;
具体过程为:
步骤二一、对步骤一得到的AMI会议的对话篇章结构进行Levi图[8](题目:Handbookofgraphtheory,作者:JonathanLGross,JayYellen,andPingZhang,年份:2013)转换;具体过程为:
对步骤一得到的AMI会议的对话篇章结构(如图3(a))进行Levi图转换,将边转换为关系节点,这种转换方式可以有效的利用边信息;Levi图转换结果如图3(b)所示;经过Levi图转换之后,篇章结构关系类型将会变为图中的一个节点,例如图3(a)中的“问答”边在图3(b)中成为一个新的节点;为了更好地促进信息在整个图上的的传播,在句子节点和关系节点之间添加正向与反向边,正向边保留了原有的边方向,例如图3(a)中句子2通过“问答”关系指向句子1,经过转换以后,句子2通过“正向边”指向“问答”节点,“问答”节点通过“正向边”指向句子1。反相边与正向边的方向相反;
步骤二二、增加全局节点G与全局连接边;
为了有效的获得整个图谱的信息,促进信息传播,本发明在上述步骤一的基础上增加全局节点G。增加全局节点G,全局节点G与图中所有节点全部增加一条连接边,称为全局连接边;如图4(a)中所示:全局连接边;增加全局连接边来收集整个图的全局信息;
步骤二三、增加自连接边;
在上述步骤二二的基础上,本发明增加自连接边来获得自身信息,自连接边由每一个节点指向自身;
句子节点U1,U2,U3和U4、关系节点“问答”“延续”和“解释”以及全局节点都有指向自身的自连接边,同时全局节点G有指向句子节点和关系节点的全局连接边;
步骤二四、修改正向边为正向入边与正向出边(如图4(b)),修改反向边为反向入边与反向出边(如图4(c));
句子节点和关系节点属于两种不同类型的节点,使用统一的正向边与反向边传播信息会导致信息损失。本发明根据节点类型对两种边进行修改,以促进不同类型节点之间信息更好的传播。例如图3(b)中U2通过正向边连接“问答”节点,修改后变为U2通过正向入边连接“问答”节点,“问答”节点通过正向出边连接U1节点。反向边同理,如图4(c)。
步骤二五、经过步骤二一到二四,本发明最终构建出会议篇章结构图如图4(d);
会议篇章结构图包含6种类型的边关系:自连接边、全局连接边、正向入边、正向出边、反向入边、反向出边;
会议篇章结构图包含三种类型的节点:全局节点、句子节点和关系节点;
其中自连接边包括三种形式:全局节点指向全局节点,句子节点指向句子节点,关系节点指向关系节点;
全局连接边包括两种形式:全局节点指向句子节点,全局节点指向关系节点;
正向入边为句子节点指向关系节点,正向出边为关系节点指向句子节点、反向入边为句子节点指向关系节点,反向出边为关系节点指向句子节点。
其它步骤及参数与具体实施方式一至四之一相同。
具体实施方式六:本实施方式与具体实施方式一至五之一不同的是:所述步骤三中利用“问答”对话篇章结构构建伪数据和对应的伪数据的会议篇章结构图;具体过程为:
步骤三一、根据步骤一得到的AMI会议的对话篇章结构,利用对话篇章结构关系中“问答对”判断一句话是否为“问题”,(对于句子A与句子B,当两个句子被判断为“问答对”结构以后,句子A为“问题”,在得到“问题”以后,将该“问题”之后的10句话作为针对这个“问题”的一段“讨论”。本发明发现一个“问题”往往引起针对这一问题的一段“讨论”,如图5,界面设计师问“什么是标准的颜色?”,之后引发了一段关于颜色的讨论。)若是“问题”,将“问题”作为伪摘要,“问题”之后的一段“讨论”作为伪会议,根据“讨论”“问题”对构建伪数据;
伪数据中的每一条数据为“讨论”和“问题”对,即给定一段“讨论”,目标为生成相应的“问题”。“讨论”表示一段小的会议,由“问题”之后的10句话组成,“问题”表示针对这段讨论的总结,根据“问答对”关系得到;
若不是“问题”,结束;
步骤三二、得到伪数据以后,根据步骤二进行同样的处理,得到伪数据的会议篇章结构图。
其它步骤及参数与具体实施方式一至五之一相同。
具体实施方式七:本实施方式与具体实施方式一至六之一不同的是:所述步骤四中利用步骤三构建好的伪数据和对应的伪数据的会议篇章结构图预训练基于图神经网络的生成式会议摘要模型,得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;
将步骤一得到的会议数据的对话篇章结构和步骤二得到的会议篇章结构图输入预训练好的图神经网络的生成式会议摘要模型进行训练,得到训练好的图神经网络的生成式会议摘要模型和模型参数;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要;
具体过程为:
步骤四一、获取节点表示;具体过程为:
按照步骤二构建出的对话篇章结构图一共包含三种类型的节点;
该词嵌入矩阵存储了全局节点和关系节点的初始表示,对于全局节点,有一个向量表示,对于每一个关系节点,也有一个向量表示。这些表示是随机初始化得到的。
对于句子节点,一个会议包含了|U|个句子[u1,u2,...,u|U|],其中第i个句子被表示为ui=[ui,1,ui,2,…,ui,|U|],uij代表了第i个句子中的第j个词语;每一个句子ui都对应一个说话人pi,pi∈P,P是说话人集合;
利用步骤一二划分出的AMI会议训练集(97个会议)构建词表,词表包含了AMI会议训练集中所有的词语及其对应的ID索引,每一个词语都拥有唯一索引;
对于句子节点,使用双向长短时记忆网络(BiLSTM)获得每一个词语uij的表示hi,j,如图6句子编码器:
hi,j=BiLSTM(hi,j-1,ei,j) (1)
式(1)中,hi,j代表了BiLSTM的隐层状态,ei,j代表了句子中词语的词向量;ei,j由预训练好的词向量和说话人pi对应的独热向量拼接而成;ei,j=[wui,j||wpi],其中wui,j为词语uij对应的现有的预训练好的词向量,对于一个词语,可以根据词表对应的索引在预训练好的词嵌入矩阵中得到,wpi为说话人pi对应的独热向量,独热向量为一种向量表示形式,例如:有4种说话人A、B、C、D,那么这四种角色的独热向量分别为,A:[1,0,0,0],B:[0,1,0,0],C:[0,0,1,0],D:[0,0,0,1],||代表两个向量拼接;
步骤四二、利用图卷积神经网络更新表示,如图6图编码器。
式(2)中,Nr(vi)代表节点vi在关系r下的邻居节点;|Nr(vi)|代表节点vi在关系r下的邻居节点的数量;代表第l层对于关系r可学习的参数;ReLU为激活函数;代表节点vi在l+1层的表示;代表节点vj在l层的表示;
根据式(2)更新节点表示利用卷积操作,根据下一层邻居节点的表示来更新得到上一层的节点表示,这种方式可以充分的利用对话篇章结构图的信息,学习得到更好的节点表示。
不同的节点拥有不同的重要程度,为了更有效地获取不同节点的信息。本发明利用门控机制对来自不同节点的信息进行控制:
采用门控机制以后,式(2)的卷积操作变为式(4):
步骤四三、利用单向长短时记忆网络(LSTM)解码器来生成摘要,如图6解码器;具体过程为:
步骤四二得到了每一个节点的更新表示,将步骤四二更新后的全局节点G表示赋值给解码器的细胞状态和隐层状态来初始化解码器的初始状态;
at=softmax(et)
式(5)中,Wa为可学习的参数,是步骤四一(公式1的)获得的词语初始表示;为对于第i句话第j个词语,未归一化的权重;为解码器t时刻状态;at为经过归一化以后的权重;et为归一化之前的权重;为词语级别的向量表示;为归一化以后的,对于第i句话第j个词语的权重;
Pvocab=softmax(V′(V[st||ht *]+b)+b′) (7)
除了从词表中生成词语,本发明模型还允许从原文中拷贝词语。首先计算从词表中生成词语的概率pgen,该概率说明了有多大可能性从词表中生成词语,例如pgen为0.8,代表了有80%的可能性从词表中生成词语,有20%的可能性从原文中拷贝词语:
式(8)中,ws,wx和bptr为可学习的参数;sigmoid为激活函数;pgen代表了从词表中生成的概率,1-pgen代表了从原文中拷贝的概率;为对求转置;为对ws求转置;为对wx求转置;xt为t时刻解码器输入词语的现有的预训练好的词向量;
因此对于一个词语w,综合考虑从词表中生成的概率和从原文中拷贝的概率,最终概率如式(9):
使用极大似然估计训练基于图神经网络的生成式会议摘要模型,得到训练好的图神经网络的生成式会议摘要模型;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。
根据步骤四一到四三,首先使用步骤三构建好的伪数据预训练模型,得到训练好的模型以后,接着使用AMI会议数据集微调模型,得到最终的生成式会议摘要模型。给定一段会议和对应的会议篇章结构图,我们使用训练好的基于图神经网络的生成式会议摘要模型根据式(9)来生成最终摘要。
其它步骤及参数与具体实施方式一至六之一相同。
具体实施方式八:本实施方式与具体实施方式一至七之一不同的是:所述使用极大似然估计(公式10)训练基于图神经网络的生成式会议摘要模型,得到训练好的图神经网络的生成式会议摘要模型;具体过程为:
其它步骤及参数与具体实施方式一至七之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
本发明对提出的模型进行了实现,同时和目前的基线模型(Sentence-Gated模型)和标准摘要进行了对比。
目前的Sentence-Gated模型生成的摘要:
The need to incorporate a fruit theme into the design ofthe remote.
需要将水果主题融入遥控器的设计中。
本发明模型生成的摘要:
The buttons will be included in a fruit and vegetable theme into theshape of the remote control.
这些按钮将包含在一个以水果和蔬菜为主题的遥控器中。
标准摘要:
The Marketing Expert presented trends in the remote control marketand the fruit and vegetable and spongy material trends in fashion.
市场专家介绍了市场的发展趋势,以及果蔬、海绵状材料的流行趋势。
可以看出
本发明的模型可以生成与标准摘要更加相似的结果,通过引入对话篇章结构,可以更全面的理解会议信息。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (8)
1.一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述方法具体过程为:
步骤一:训练对话篇章结构解析器,并对会议数据进行标注,得到会议的对话篇章结构;
步骤二:对于会议数据集中每一条会议及根据步骤一得到的会议的对话篇章结构,构建会议篇章结构图,会议篇章结构图包括了会议中的所有句子,会议中的所有参与者,以及会议中句子之间的对话篇章结构;
将会议篇章结构图表示为GD=(VD,ED,RD),其中vi∈VD代表图节点,(vi,r,vj)∈ED代表图中边,r∈RD代表图中边关系;
步骤三:利用“问答”对话篇章结构构建伪数据和对应的伪数据的会议篇章结构图;
步骤四:利用步骤三构建好的伪数据和对应的伪数据的会议篇章结构图预训练基于图神经网络的生成式会议摘要模型,得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;
将步骤一得到的会议数据的对话篇章结构和步骤二得到的会议篇章结构图输入预训练好的图神经网络的生成式会议摘要模型进行训练,得到训练好的图神经网络的生成式会议摘要模型和模型参数;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。
2.根据权利要求1所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤一中训练对话篇章结构解析器,并对会议数据进行标注,得到会议的对话篇章结构;具体过程为:
步骤一一、利用现有STAC数据集训练现有对话篇章结构解析器Deep Sequential,得到训练好的对话篇章结构解析器Deep Sequential;
步骤一二、利用训练好的对话篇章结构解析器Deep Sequential对AMI会议数据进行对话篇章结构的标注,得到AMI会议的对话篇章结构。
3.根据权利要求2所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤一一中利用现有STAC数据集训练现有对话篇章结构解析器Deep Sequential,得到训练好的对话篇章结构解析器Deep Sequential;具体过程为:
STAC数据集为英文游戏多人聊天数据集,STAC数据集标注了对话中基本语义单元之间的语义关系;
所述多人为3人以上。
4.根据权利要求3所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤一二中利用训练好的对话篇章结构解析器Deep Sequential对AMI会议数据进行对话篇章结构的标注,得到AMI会议的对话篇章结构;具体过程为:
AMI会议数据为会议数据集,包含了四个参与者,四位参与者针对一款产品开发进行讨论;
将AMI会议数据集划分为训练集、开发集和测试集;
训练好的对话篇章结构解析器Deep Sequential模型首先判断AMI会议中的两句话之间是否有关系,如果句子A和B有关系,Deep Sequential模型继续判断是哪一种关系,关系属于评论、澄清问题、详述、致谢、延续、解释、条件、问答对、交替、问题详述、结果、背景、叙述、纠正、平行和对比16种关系中的一种;
对会议数据进行标注,得到AMI会议的对话篇章结构;
如果句子A和B没有关系,就不进行标注。
5.根据权利要求4所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤二中对于会议数据集中每一条会议及根据步骤一得到的会议的对话篇章结构,构建会议篇章结构图,会议篇章结构图包括了会议中的所有句子,会议中的所有参与者,以及会议中句子之间的对话篇章结构;
将会议篇章结构图表示为GD=(VD,ED,RD),其中vi∈VD代表图节点,(vi,r,vj)∈ED代表图中边,r∈RD代表图中边关系;
具体过程为:
步骤二一、对步骤一得到的AMI会议的对话篇章结构进行Levi图转换;具体过程为:
对步骤一得到的AMI会议的对话篇章结构进行Levi图转换,将边转换为关系节点;在句子节点和关系节点之间添加正向与反向边,正向边保留了原有的边方向,反向边与正向边的方向相反;
步骤二二、增加全局节点G与全局连接边:
增加全局节点G,全局节点G与图中所有节点全部增加一条连接边,称为全局连接边;
步骤二三、增加自连接边:
自连接边由每一个节点指向自身;
步骤二四、修改正向边为正向入边与正向出边,修改反向边为反向入边与反向出边;
步骤二五、经过步骤二一到二四,构建出会议篇章结构图;
会议篇章结构图包含6种类型的边关系:自连接边、全局连接边、正向入边、正向出边、反向入边、反向出边;
会议篇章结构图包含三种类型的节点:全局节点、句子节点和关系节点;
其中自连接边包括三种形式:全局节点指向全局节点,句子节点指向句子节点,关系节点指向关系节点;
全局连接边包括两种形式:全局节点指向句子节点,全局节点指向关系节点;
正向入边为句子节点指向关系节点,正向出边为关系节点指向句子节点、反向入边为句子节点指向关系节点,反向出边为关系节点指向句子节点。
6.根据权利要求5所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤三中利用“问答”对话篇章结构构建伪数据和对应的伪数据的会议篇章结构图;具体过程为:
步骤三一、根据步骤一得到的AMI会议的对话篇章结构,利用对话篇章结构关系中“问答对”判断一句话是否为“问题”,若是“问题”,将“问题”作为伪摘要,“问题”之后的一段“讨论”作为伪会议,根据“讨论”“问题”对构建伪数据;
若不是“问题”,结束;
步骤三二、得到伪数据以后,根据步骤二进行同样的处理,得到伪数据的会议篇章结构图。
7.根据权利要求6所述一种基于图卷积神经网络的生成式会议摘要方法,其特征在于:所述步骤四中利用步骤三构建好的伪数据和对应的伪数据的会议篇章结构图预训练基于图神经网络的生成式会议摘要模型,得到预训练好的图神经网络的生成式会议摘要模型和初始化参数;
将步骤一得到的会议数据的对话篇章结构和步骤二得到的会议篇章结构图输入预训练好的图神经网络的生成式会议摘要模型进行训练,得到训练好的图神经网络的生成式会议摘要模型和模型参数;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要;
具体过程为:
步骤四一、获取节点表示;具体过程为:
对于句子节点,一个会议包含了|U|个句子[u1,u2,...,u|U|],其中第i个句子被表示为ui=[ui,1,ui,2,...,ui,|U|],uij代表了第i个句子中的第j个词语;每一个句子ui都对应一个说话人pi,pi∈P,P是说话人集合;
利用步骤一二划分出的AMI会议训练集构建词表,词表包含了AMI会议训练集中所有的词语及其对应的ID索引,每一个词语都拥有唯一索引;
对于句子节点,使用双向长短时记忆网络获得每一个词语uij的表示hi,j:
hi,j=BiLSTM(hi,j-1,ei,j) (1)
式(1)中,hi,j代表了BiLSTM的隐层状态,ei,j代表了句子中词语的词向量;
式(2)中,Nr(vi)代表节点vi在关系r下的邻居节点;|Nr(vi)|代表节点vi在关系r下的邻居节点的数量;代表第l层对于关系r可学习的参数;ReLU为激活函数;代表节点vi在l+1层的表示;代表节点vj在l层的表示;
利用门控机制对来自不同节点的信息进行控制:
采用门控机制以后,式(2)的卷积操作变为式(4):
步骤四三、利用单向长短时记忆网络解码器来生成摘要;具体过程为:
式(5)中,Wa为可学习的参数,是步骤四一获得的词语初始表示;为对于第i句话第j个词语,未归一化的权重;为解码器t时刻状态;at为经过归一化以后的权重;et为归一化之前的权重;为词语级别的向量表示;为归一化以后的,对于第i句话第j个词语的权重;
a′t=softmax(e′t)
计算从词表中生成词语的概率pgen:
式(8)中,ws,wx和bptr为可学习的参数;sigmoid为激活函数;pgen代表了从词表中生成的概率,1-pgen代表了从原文中拷贝的概率;为对求转置;为对ws求转置;为对wx求转置;xt为t时刻解码器输入词语的现有的预训练好的词向量;
因此对于一个词语w,综合考虑从词表中生成的概率和从原文中拷贝的概率,最终概率如式(9):
使用极大似然估计训练基于图神经网络的生成式会议摘要模型,得到训练好的图神经网络的生成式会议摘要模型;
利用训练好的图神经网络的生成式会议摘要模型对待测试的会议进行测试,生成摘要。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010163281.8A CN111460132B (zh) | 2020-03-10 | 2020-03-10 | 一种基于图卷积神经网络的生成式会议摘要方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010163281.8A CN111460132B (zh) | 2020-03-10 | 2020-03-10 | 一种基于图卷积神经网络的生成式会议摘要方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460132A CN111460132A (zh) | 2020-07-28 |
CN111460132B true CN111460132B (zh) | 2021-08-10 |
Family
ID=71681799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010163281.8A Active CN111460132B (zh) | 2020-03-10 | 2020-03-10 | 一种基于图卷积神经网络的生成式会议摘要方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460132B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085942B (zh) * | 2020-09-25 | 2021-12-31 | 汉桑(南京)科技有限公司 | 一种根据遥控设备图像配置遥控功能数据的方法和系统 |
CN112148863B (zh) * | 2020-10-15 | 2022-07-01 | 哈尔滨工业大学 | 一种融入常识知识的生成式对话摘要方法 |
CN112463424B (zh) * | 2020-11-13 | 2023-06-02 | 扬州大学 | 一种基于图的端到端程序修复方法 |
CN112765313B (zh) * | 2020-12-31 | 2022-06-28 | 太原理工大学 | 一种基于原文和评论信息分析算法的虚假信息检测方法 |
US12026199B1 (en) * | 2022-03-09 | 2024-07-02 | Amazon Technologies, Inc. | Generating description pages for media entities |
JP7223469B1 (ja) | 2022-09-07 | 2023-02-16 | 株式会社Aces | 発話情報資料化装置 |
CN115982342B (zh) * | 2022-12-27 | 2023-08-25 | 中科天网(广东)标准技术研究有限公司 | 基于成果转换标准的整合制定方法及系统 |
CN116541505B (zh) * | 2023-07-05 | 2023-09-19 | 华东交通大学 | 一种基于自适应对话分割的对话摘要生成方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4935405B2 (ja) * | 2007-02-16 | 2012-05-23 | 日本電気株式会社 | 因果関係分析装置、因果関係分析方法及びプログラム |
CN103617158A (zh) * | 2013-12-17 | 2014-03-05 | 苏州大学张家港工业技术研究院 | 一种对话文本情感摘要的生成方法 |
CN109670035B (zh) * | 2018-12-03 | 2021-03-23 | 科大讯飞股份有限公司 | 一种文本摘要生成方法 |
CN110609891B (zh) * | 2019-09-18 | 2021-06-08 | 合肥工业大学 | 一种基于上下文感知图神经网络的视觉对话生成方法 |
-
2020
- 2020-03-10 CN CN202010163281.8A patent/CN111460132B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111460132A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460132B (zh) | 一种基于图卷积神经网络的生成式会议摘要方法 | |
TWI732271B (zh) | 人機對話方法、裝置、電子設備及電腦可讀媒體 | |
US20230048218A1 (en) | On-Device Projection Neural Networks for Natural Language Understanding | |
CN109753566B (zh) | 基于卷积神经网络的跨领域情感分析的模型训练方法 | |
CN109472024B (zh) | 一种基于双向循环注意力神经网络的文本分类方法 | |
CN109844743B (zh) | 在自动聊天中生成响应 | |
CN106919646B (zh) | 中文文本摘要生成系统及方法 | |
CN109844741B (zh) | 在自动聊天中生成响应 | |
Vinyals et al. | Show and tell: A neural image caption generator | |
CN113255755B (zh) | 一种基于异质融合网络的多模态情感分类方法 | |
CN113420807A (zh) | 基于多任务学习与注意力机制的多模态融合情感识别系统、方法及实验评价方法 | |
US11862145B2 (en) | Deep hierarchical fusion for machine intelligence applications | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN111414461B (zh) | 一种融合知识库与用户建模的智能问答方法及系统 | |
CN111275401B (zh) | 一种基于位置关系的智能面试方法及系统 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN111241250B (zh) | 一种情感对话生成系统和方法 | |
CN112818861A (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN111400461B (zh) | 智能客服问题匹配方法及装置 | |
CN112349294B (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
CN109271636B (zh) | 词嵌入模型的训练方法及装置 | |
CN117094291B (zh) | 基于智能写作的自动新闻生成系统 | |
CN111353040A (zh) | 基于gru的属性级别情感分析方法 | |
CN112131345A (zh) | 文本质量的识别方法、装置、设备及存储介质 | |
CN113947074A (zh) | 一种深度协同交互的情感原因联合抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |