CN111382261B - 摘要生成方法、装置、电子设备及存储介质 - Google Patents

摘要生成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111382261B
CN111382261B CN202010187730.2A CN202010187730A CN111382261B CN 111382261 B CN111382261 B CN 111382261B CN 202010187730 A CN202010187730 A CN 202010187730A CN 111382261 B CN111382261 B CN 111382261B
Authority
CN
China
Prior art keywords
language
text
target
abstract
languages
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010187730.2A
Other languages
English (en)
Other versions
CN111382261A (zh
Inventor
王明轩
李磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010187730.2A priority Critical patent/CN111382261B/zh
Publication of CN111382261A publication Critical patent/CN111382261A/zh
Application granted granted Critical
Publication of CN111382261B publication Critical patent/CN111382261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本公开实施例公开了一种摘要生成方法、装置、电子设备及存储介质。所述方法包括:获取待翻译语言对应的源文本;获取指定的目标语言;将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言作为第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。本公开实施例可以提高摘要生成的效率和准确性。

Description

摘要生成方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及文本识别领域,尤其涉及一种摘要生成方法、装置、电子设备及存储介质。
背景技术
目前,随着网络的发展,人们可以方便的获取国际文档并进行阅读。但读者在对国际文档进行阅读时,其中包含的大量文本数据以及非母语语言使得读者花费大量时间进行浏览阅读。
目前可以从原始语言的文档提取关键信息并生成原始语言的摘要,再将原始语言的摘要翻译生成目标语言的摘要,使读者快速了解文档的内容,进而决定是否继续深入阅读该文档。
上述跨语言文档摘要生成方法,需要经过两次文本处理,第一次文本处理结果会存在错误和语义缺失的情况,将不准确的结果进行第二次文本处理,进一步增加最终结果的错误和缺失的问题。
发明内容
本公开实施例提供一种摘要生成方法、装置、电子设备及存储介质,可以提高摘要生成的效率和准确性。
第一方面,本公开实施例提供了一种摘要生成方法,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;
将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
第二方面,本公开实施例还提供了一种摘要生成装置,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;
摘要生成模块,用于将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
摘要文本获取模块,用于获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
第三方面,本公开实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序所述处理器执行所述程序时实现如本公开实施例中任一所述的摘要生成方法。
第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例中任一所述的摘要生成方法。
本公开实施例通过将源文本输入到预先训练的摘要生成模型中,并通过指定目标语言,得到摘要生成模型输出的与目标语言对应的摘要文本,解决了现有技术中需要多步文本处理才能实现从一个语言的文档到另一个语言的摘要文本,导致生成的摘要准确率低的问题,可以仅通过摘要生成模型同时实现摘要生成以及摘要翻译,简化摘要生成的过程,减少中间环节的错误传递,大大提高摘要翻译准确率,同时降低摘要生成的成本,提高摘要的生成效率。
附图说明
图1是本公开实施例中的一种摘要生成方法的流程图;
图2是本公开实施例所适用的Seq2Seq模型的示意图;
图3是本公开实施例所适用的Seq2Seq模型中编码器的示意图;
图4是本公开实施例所适用的Seq2Seq模型中解码器的示意图;
图5是本公开实施例中的一种摘要生成装置的结构示意图;
图6是本公开实施例中的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
实施例
图1为本公开实施例中的一种摘要生成方法的流程图,可适用于将源文本简化以及翻译成任意指定的目标语言对应的摘要文本情况,该方法可以由摘要生成装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于电子设备中,具体是配置于电子设备中,电子设备可以是终端设备,可以包括手机、车载终端或笔记本电脑等,或者可以是服务器。如图1所示,该方法具体包括如下步骤:
S110,获取待翻译语言对应的源文本。
源文本用于作为待转换(包括简化和翻译)的文本,可以是从文档文件中提取的文本。源文本可以包括至少一个语言的文本。例如,源文本可以仅包括中文:我爱唱歌,或者可以包括英文和中文:I love to唱歌,其中,该源文本包括英文文本I love to和中文文本唱歌。
待翻译语言为源文本的语言,待翻译语言的数量为至少一个。若源文本为单一语言的文本,待翻译语言为该单一语言。若源文本为混合语言的文本,待翻译语言为混合语言,或者为混合语言中的一个语言。示例性的,待翻译语言可以是混合语言中单词数最多的语言,例如,源文本为I love to唱歌,英文包括3个单词,而中文包括1个单词,英文的单词数多于中文的单词数,待翻译语言为英文。
S120,获取指定的目标语言。
目标语言用于确定翻译文本的语言。目标语言通常为用户指定,也可以是按照设定规则随机指定。具体的,获取用户的输入信息确定目标语言。
S130,将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言。
摘要生成模型用于将任意文本转换成任意语言的摘要文本,具体是,对第一文本进行简化,形成更简短的语义相似的第二文本,同时,将第一文本的语言翻译成另外一种语言,即第二文本的语言。其中,摘要生成模型包括机器学习模型,例如,神经网络模型,具体是单神经网络模型(如卷积神经网络模型)或融合神经网络模型(如融合卷积神经网络和循环神经网络的模型)等。
目标语言匹配的指示信息用于标识目标语言,不同的目标语言匹配的指示信息不同。示例性的,指示信息可以是设定字符,例如,1-中文,2-英文,3-日文,或者是a-中文,b-英文,c-日文,此外,还可以是符号,对此本公开实施例不做具体限制。
第一语言集合包括至少两个语言,第二语言集合包括至少两个语言。第一语言和第二语言集合不完全相同,第一语言集合和第二语言集合形成的语言集合包括至少三个语言。第一文本的语言属于第一语言集合,第二文本的语言属于第二语言集合。
S120,获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述源文本对应的待翻译语言与所述目标语言不同。
摘要文本用于概括源文本的内容,摘要文本可以是指与源文本的主题相同,语言不同的文本,具体的,可以是提取源文本中的关键信息形成的文本。
可以理解的是,摘要文本与源文本的主题相同,表明摘要文本可以概括源文本的关键信息,并剔除源文本中的冗余信息。例如,源文本包括论据和论点,摘要文本包括论点,又如,源文本包括事件发生的起因、经过和结果,摘要文本包括事件起因和结果。
可选的,所述获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,包括:通过所述摘要生成模型中的编码器提取各所述源文本中的源文本序列片段,并进行编码,形成所述源文本的目标特征向量;其中,所述摘要生成模型为Seq2Seq模型;通过所述摘要生成模型中的解码器根据所述目标特征向量和所述目标语言,将所述目标特征向量映射为目标语言的文本序列,作为摘要文本。
其中,摘要生成模型为Seq2Seq模型(序列到序列模型)。实际上,Seq2Seq模型是一种循环神经网络的变种,包括编码器(Encoder)和解码器(Decoder)。其中,编码器和解码器包括神经网络模型。实际上,编码器和解码器均可以基于神经网络模型构建。其中,神经网络模块可以包括下述至少一项:卷积神经网络模型、循环神经网络模型、深度神经网络模型、反向传播神经网络模型、长短期记忆网络模型、门重复单元模型。
其中,源文本序列片段用于组成源文本。目标特征向量用于表征源文本的特征,具体可以包括源文本中的文本内容,以及词语、句子和段落等之间的固定搭配信息。
如图2所示,编码器用于编码序列的信息,将任意长度的序列信息(x)编码到特征向量(c),具体是将源文本代表的文本序列进行切分以及编码转换成为特征向量。解码器用于根据上下文信息对特征向量(c)进行解析,形成文本序列(y),即摘要文本。特征向量实际用于表征源文本的特征。
具体的,编码器的编码过程包括:对源文本进行切分,形成至少一个源文本序列片段,源文本序列片段包括下述至少一项字、词语、句和段落;根据各源文本序列片段,依次对初始向量进行变换,形成特征向量。
实际上,编码器和解码器均为神经网络模型,网络结构均可以包括隐藏层。隐藏层包括多个隐藏层向量。
初始向量为预设的向量,用于结合各源文本序列片段生成隐藏层向量,最终形成特征向量。
示例性的,如图3所示,h1、h2、h 3……hn为隐藏层向量,与上一时刻的状态以及当前输入有关。h0为预设的初始隐藏层向量,x1、x2、x3……xn为源文本序列片段,c为特征向量。根据h0以及此刻输入x1计算h1,再根据h1以及此刻输入x2计算h2,以此类推,根据hn以及此刻输入xn计算c。
此外,还可以配置多个编码器,对源文本进行多层次的分析,例如,分别在词层次、句层次和段落层次对源文本进行向量表示,并叠加形成最终的特征向量c,以尽可能的提取源文本中的文本特征和内容信息。其中,多个词序列形成一个句序列,多个句序列形成一个段落序列。具体可以根据需要设置编码器的数量,以及源文本的解析层次,对此,本公开实施例不作具体限制。
具体的,解码器的解码过程包括:对特征向量进行解析,确定至少一个备选文本序列片段;从至少一个备选文本序列片段中确定目标文本序列片段,并拼接形成目标语言的文本序列。
实际上,一个时刻,或者说一个次解码可以计算得到一个隐藏层向量并输出多个文本序列片段以及每个文本序列片段的概率,这些文本序列片段为备选文本序列片段,文本序列片段的概率用于描述该文本序列片段为当前时刻或本次解码的输出的概率。可以根据各备选文本序列片段的概率,从中筛选出概率最高的作为目标文本序列片段,以拼接成摘要文本。目标文本序列片段用于组成摘要文本。
具体的,解码器在对特征向量进行解析时,通常将特征向量作为输入,计算得到当前时刻对应的隐藏层向量,确定备选文本序列片段并计算各备选文本序列片段的概率(如置信度),根据各备选文本序列片段的概率,确定目标文本序列片段。后续依次根据上一时刻得到隐藏层向量确定计算当前时刻对应的隐藏层向量,以及确定当前时刻对应的备选文本序列片段并计算各备选文本序列片段的概率,进而确定当前时刻对应的目标文本序列片段。示例性的,根据上一时刻得到隐藏层向量计算当前时刻对应的隐藏层向量,确定目标文本序列片段,可以仅根据上一时刻得到的隐藏层向量计算当前时刻对应的隐藏层向量,还可以根据上一时刻得到的隐藏层向量、特征向量以及上一时刻对应的目标文本序列片段,确定当前时刻对应的隐藏层向量,当前时刻对应的目标文本序列片段。
其中,根据各备选文本序列片段的概率,从中筛选出概率最高的作为目标文本序列片段,例如,与目标语言匹配的备选文本序列片段的概率高于与目标语言不匹配的备选文本序列片段的概率,从而筛选出目标语言对应的目标文本序列片段。
示例性的,如图4所示,h1’、h2’、h3’……hn’为隐藏层向量,与上一时刻的状态以及当前输入有关。h0’为预设的初始隐藏层向量,y1、y2、y3……yn为输出序列,c为特征向量。根据h0’以及c计算h1’,再根据h1’以及c计算h2,以此类推,根据hn-1’以及c计算hn’。同时根据h0、h1’、c计算多个备选文本序列片段的概率,并从中确定目标文本序列片段作为y1输出,再根据h1’、y1和c计算多个备选文本序列片段的概率,并从中确定目标文本序列片段作为y2输出,以此类推,根据hn-1’、yn-1以及c输出yn。对y1、y2、y3……yn进行拼接,得到的文本即为摘要文本。
通过采用Seq2Seq模型实现源文本到目标语言的摘要文本的摘要,可以直接将源文本作为文本序列转换为指定语言的文本序列作为摘要文本,简化摘要生成的过程,减少通过多步实现摘要生成时中间环节放大的摘要错误,提高摘要生成的效率,以及摘要的准确率。
可选的,所述摘要生成模型还包括:注意力模块,所述注意力模块用于计算各所述编码器中的隐藏层向量权重以及所述解码器输出的历史文本序列片段权重,以使所述解码器基于各所述隐藏层向量权重以及各所述历史文本序列片段权重对所述特征向量进行解码。
历史文本序列片段是指当前时刻之间解码器输出的目标文本序列片段。隐藏层向量用于确定下一时刻的隐藏层向量以及下一时刻的目标文本序列片段。隐藏层向量包括源文本的特征信息。
在解码器对特征向量进行解析时,当前时刻输出的目标文本序列片段不仅和特征向量、解码器的上一时刻隐藏层向量、以及上一时刻对应的历史文本序列片段相关联,还与编码器中的隐藏层向量相关。
注意力模块(Attention)用于对特征向量、解码器的上一时刻隐藏层向量、上一时刻对应的历史文本序列片段以及编码器中的隐藏层向量分别分配权重,以表达上述各个元素对当前时刻输出的目标文本序列片段的影响。
通过注意力模块(Attention)确定编码器中各隐藏层向量、解码器的上一时刻隐藏层向量、以及上一时刻对应的历史文本序列片段的权重,并进行加权求和,计算下一时刻的隐藏层向量以及目标文本序列片段,减少源文本的文本特征信息丢失,从而更加准确确定目标文本序列片段。
本公开实施例通过将源文本输入到预先训练的摘要生成模型中,并通过指定目标语言,得到摘要生成模型输出的与目标语言对应的摘要文本,解决了现有技术中需要多步文本处理才能实现从一个语言的文档到另一个语言的摘要文本,导致生成的摘要准确率低的问题,可以仅通过摘要生成模型同时实现摘要生成以及摘要翻译,简化摘要生成的过程,减少中间环节的错误传递,大大提高摘要翻译准确率,同时降低摘要生成的成本,提高摘要的生成效率。
在一个示例性的实施方式中,可选的,在将源文本输入到预先训练的摘要生成模型中之前,还包括:获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标摘要文本,所述目标摘要文本标注有语言信息;根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个。
其中,样本对是指目标源文本与目标摘要文本的组合。样本对集合包括多个样本对。样本对用于作为训练样本训练初始模型。
需要说明的是,文本可以直接从网络中抓取,通常根据抓取源头确定文本的语言,例如,从美国电子杂志中抓取的文本,该文本的语言为英文。
可以从网络上抓取文本的全文作为目标源文本,并将该文本的摘要段作为备选摘要文本,可以对备选摘要文本进行人工翻译,获取与备选摘要文本语义相同的其他语言的文本,作为目标源文本,并将抓取的语音作为目标摘要文本,与目标源文本,形成样本对。
语言信息用于标识文本的语言。可以仅对样本对中的目标摘要文本进行标注,还可以对样本对中的目标源文本以及目标摘要文本均进行标注。
示例性的,语言信息可以是设定字符,例如,1-中文,2-英文,3-日文,或者是a-中文,b-英文,c-日文,此外,还可以是符号,对此本公开实施例不做具体限制。
此外,针对混合语言的源文本可以仅标注为一个语言,如标注单词含量最高的语言,也可以分别标注语言。示例性的,可以将元素(字、词、句和段等)数量最多的语言作为文本对应的语言,例如,目标源文本为I love to唱歌,可以按照英文包括3个单词,而中文包括1个单词,英文的单词的数量最多,将该目标源文本标注为英文;还可以将I love to标注为英文,并将唱歌标注为中文;或者可以标注为中文。
其中,所述样本对集合对应的语言数量包括至少两个,表明该样本对集合至少存在由第一语言的目标源文本与第二语言的目标摘要文本的样本对,和/或存在由第二语言的目标源文本与第一语言的目标摘要文本的样本对,从而,基于样本对集合训练形成的摘要生成模型,可以实现从第一语言的源文本中提取摘要信息,并翻译形成第二语言的摘要文本,以及实现从第二语言的源文本中提取摘要信息,并翻译形成第一语言的摘要文本。
示例性的,样本对集合对应的语言数量包括至少三个,从而基于样本对集合训练形成的摘要生成模型可以在实现两个语言一一互译的情况之外,还可以实现多各语言之间的互译。
通过配置多语言的样本对,对初始模型进行训练,形成多语言文本互译的摘要生成模型,实现摘要生成模型支持多语言文本互译,同时提高多语言文本互译的准确率。
实际上,现有中存在大量的单语语料,可以基于单语语料构造平行语料,并进行组合,形成大量样本对,并进行训练,以使样本更具有代表性,从而提高摘要生成模型的准确率。
可以通过多种方式构造样本对,添加到样本对集合,不断提高样本对集合的代表性,从而提高摘要生成模型的准确率。
可选的,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选摘要文本,所述备选摘要文本对应的语言为所述第一语言;获取所述备选摘要文本匹配的目标摘要文本,所述目标摘要文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选摘要文本的语义相同与所述目标摘要文本的语义相同;根据所述目标源文本和所述目标摘要文本,生成样本对。
其中,目标源文本用于作为形成样本对中的待转换的文本。目标摘要文本用于作为形成样本对中的输出结果。备选摘要文本用于作为目标源文本向目标摘要文本转换的中间结果。此时,备选摘要文本的语言与目标源文本的语言相同,主题相同,备选摘要文本是从目标源文本中提取关键信息形成的文本。备选摘要文本与目标摘要文本的语言不同,语义相同。
具体的,可以依据现有的方法根据目标源文本,先获取同语言的备选摘要文本,再对该备选摘要文本进行翻译,得到不同语言的目标摘要文本。从而将不同语言的目标源文本与目标摘要文本进行组合形成样本对。可以预先建立样本对集合,并将样本对添加到预先建立的样本对集合中,不断丰富样本对集合中的样本对,提高样本对集合的代表性。
通过现有的不同语言的摘要文本生成方法构造样本对,可以快速实现生成大量样本对,从而,提高训练样本集合的代表性,提高摘要生成模型的准确率。
可选的,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选源文本,所述备选源文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选源文本的语义相同与所述目标源文本的语义相同;获取所述备选源文本匹配的目标摘要文本,所述目标摘要文本对应的语言为所述第二语言;根据所述目标源文本和所述目标摘要文本,生成样本对。
备选源文本用于作为目标源文本向目标摘要文本转换的中间结果。此时,备选源文本的语言与目标源文本的语言不同,语义相同。备选源文本与目标摘要文本的语言相同,主题相同,目标摘要文本是从备选源文本中提取关键信息形成的文本。
具体的,可以依据现有的方法根据目标源文本,先获取不同语言的备选源文本,再对该备选源文本进行翻译,得到与备选源文本语言相同的目标摘要文本,以及与目标源文本的语言不同的目标摘要文本,从而将不同语言的目标源文本与目标摘要文本进行组合形成样本对。
通过现有的不同语言的摘要文本生成方法构造样本对,可以快速实现生成大量样本对,从而,提高训练样本集合的代表性,提高摘要生成模型的准确率。
可选的,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;在所述初始模型训练的过程中,将所述目标源文本输入到所述初始模型中,并指定所述目标语言为第二语言;获取所述初始模型输出的与所述第二语言对应的目标摘要文本;根据所述目标源文本和所述目标摘要文本,生成样本对。
其中,在所述初始模型训练的过程中,表明该初始模型已经过样本对训练,但初始模型的精度未满足要求,仍需要继续训练。具体的,此时的初始模型可以是根据预先收集的第一语言与第二语言的平行语料进行训练之后得到的模型。其中,第一语言与第二语言的平行语料是指第一语言的目标源文本与第二语言的目标摘要文本,以及第二语言的目标源文本与第一语言的目标摘要文本的语料。之后,将平行语料中的单语语料对应的目标源文本可以直接输入到正在训练的初始模型中,得到与单语语料的语言不同的目标摘要文本,可以将初始模型转换的目标源文本与匹配的目标摘要文本进行组合,形成样本对。
通过经过平行语料训练的初始模型,将平行语料中任意单语语料对应的目标源文本输入到初始模型中,得到初始模型输出的目标摘要文本,并进行组合构造样本对,可以快速实现生成大量样本对,从而,提高训练样本集合的代表性,提高摘要生成模型的准确率。
图5为本公开实施例提供的一种摘要生成装置的结构示意图,可适用于将源文本简化以及翻译成任意指定的目标语言对应的摘要文本情况。该装置可以采用软件和/或硬件的方式实现,该装置可以配置于电子设备中。
源文本获取模块310,用于获取待翻译语言对应的源文本;
目标语言指定模块320,用于获取指定的目标语言;
摘要生成模块330,用于将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
摘要文本获取模块340,用于获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
本公开实施例通过将源文本输入到预先训练的摘要生成模型中,并通过指定目标语言,得到摘要生成模型输出的与目标语言对应的摘要文本,解决了现有技术中需要多步文本处理才能实现从一个语言的文档到另一个语言的摘要文本,导致生成的摘要准确率低的问题,可以仅通过摘要生成模型同时实现摘要生成以及摘要翻译,简化摘要生成的过程,减少中间环节的错误传递,大大提高摘要翻译准确率,同时降低摘要生成的成本,提高摘要的生成效率。
进一步的,所述摘要生成模型是通过如下方式获得:在将源文本输入到预先训练的摘要生成模型中之前,获取样本对,更新样本对集合,其中,所述样本对包括一个目标源文本,以及一个目标摘要文本,所述目标摘要文本标注有语言信息;根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个。
进一步的,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选摘要文本,所述备选摘要文本对应的语言为所述第一语言;获取所述备选摘要文本匹配的目标摘要文本,所述目标摘要文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选摘要文本的语义相同与所述目标摘要文本的语义相同;根据所述目标源文本和所述目标摘要文本,生成样本对。
进一步的,所述样本对是通过如下方式获得:第二样本对生成单元,用于获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选源文本,所述备选源文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选源文本的语义相同与所述目标源文本的语义相同;获取所述备选源文本匹配的目标摘要文本,所述目标摘要文本对应的语言为所述第二语言;根据所述目标源文本和所述目标摘要文本,生成样本对。
进一步的,所述样本对是通过如下方式获得:第三样本对生成单元,用于获取第一语言对应的目标源文本;在所述初始模型训练的过程中,将所述目标源文本输入到所述初始模型中,并指定所述目标语言为第二语言;获取所述初始模型输出的与所述第二语言对应的目标摘要文本;根据所述目标源文本和所述目标摘要文本,生成样本对。
进一步的,所述摘要文本获取模块320,包括:Seq2Seq模型转换单元,包括:通过所述摘要生成模型中的编码器提取各所述源文本中的源文本序列片段,并进行编码,形成所述源文本的目标特征向量;其中,所述摘要生成模型为Seq2Seq模型;通过所述摘要生成模型中的解码器根据所述目标特征向量和所述目标语言,将所述目标特征向量映射为目标语言的文本序列,作为摘要文本。
进一步的,所述摘要生成模型还包括:注意力模块,所述注意力模块用于计算各所述编码器中的隐藏层向量权重以及所述解码器输出的历史文本序列片段权重,以使所述解码器基于各所述隐藏层向量权重以及各所述历史文本序列片段权重对所述特征向量进行解码。
本公开实施例提供的摘要生成装置,与摘要生成方法属于同一发明构思,未在本公开实施例中详尽描述的技术细节可参见前述,并且本公开实施例与前述实施例具有相同的有益效果。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备(例如图1中的终端设备或服务器)600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待翻译语言对应的源文本;获取指定的目标语言;将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言作为第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,目标语言指定模块还可以被描述为“获取指定的目标语言的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,本公开提供了一种摘要生成方法,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;
将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
根据本公开的一个或多个实施例,本公开提供的摘要生成方法中,所述摘要生成模型是通过如下方式获得:获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标摘要文本,所述目标摘要文本标注有语言信息;根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个。
根据本公开的一个或多个实施例,本公开提供的摘要生成方法中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选摘要文本,所述备选摘要文本对应的语言为所述第一语言;获取所述备选摘要文本匹配的目标摘要文本,所述目标摘要文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选摘要文本的语义相同与所述目标摘要文本的语义相同;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开的一个或多个实施例,本公开提供的摘要生成方法中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选源文本,所述备选源文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选源文本的语义相同与所述目标源文本的语义相同;获取所述备选源文本匹配的目标摘要文本,所述目标摘要文本对应的语言为所述第二语言;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开一个或多个实施例,本公开提供的摘要生成方法中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;在所述初始模型训练的过程中,将所述目标源文本输入到所述初始模型中,并指定所述目标语言为第二语言;获取所述初始模型输出的与所述第二语言对应的目标摘要文本;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开的一个或多个实施例,本公开提供的摘要生成方法中,所述获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,包括:通过所述摘要生成模型中的编码器提取各所述源文本中的源文本序列片段,并进行编码,形成所述源文本的目标特征向量;其中,所述摘要生成模型为Seq2Seq模型;通过所述摘要生成模型中的解码器根据所述目标特征向量和所述目标语言,将所述目标特征向量映射为目标语言的文本序列,作为摘要文本。
根据本公开的一个或多个实施例,本公开提供的摘要生成方法中,所述摘要生成模型还包括:注意力模块,所述注意力模块用于计算各所述编码器中的隐藏层向量权重以及所述解码器输出的历史文本序列片段权重,以使所述解码器基于各所述隐藏层向量权重以及各所述历史文本序列片段权重对所述特征向量进行解码。
根据本公开的一个或多个实施例,本公开提供了一种摘要生成装置,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;
摘要生成模块,用于将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
摘要文本获取模块,用于获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述摘要生成装置,还包括:样本对获取模块,用于在将源文本输入到预先训练的摘要生成模型中之前,获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标摘要文本,所述目标摘要文本标注有语言信息;根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选摘要文本,所述备选摘要文本对应的语言为所述第一语言;获取所述备选摘要文本匹配的目标摘要文本,所述目标摘要文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选摘要文本的语义相同与所述目标摘要文本的语义相同;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;获取与所述目标源文本匹配的备选源文本,所述备选源文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选源文本的语义相同与所述目标源文本的语义相同;获取所述备选源文本匹配的目标摘要文本,所述目标摘要文本对应的语言为所述第二语言;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述样本对是通过如下方式获得:获取第一语言对应的目标源文本;在所述初始模型训练的过程中,将所述目标源文本输入到所述初始模型中,并指定所述目标语言为第二语言;获取所述初始模型输出的与所述第二语言对应的目标摘要文本;根据所述目标源文本和所述目标摘要文本,生成样本对。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述摘要文本获取模块,包括:Seq2Seq模型转换单元,包括:通过所述摘要生成模型中的编码器提取各所述源文本中的源文本序列片段,并进行编码,形成所述源文本的目标特征向量;其中,所述摘要生成模型为Seq2Seq模型;通过所述摘要生成模型中的解码器根据所述目标特征向量和所述目标语言,将所述目标特征向量映射为目标语言的文本序列,作为摘要文本。
根据本公开的一个或多个实施例,本公开提供的摘要生成装置中,所述摘要生成模型还包括:注意力模块,所述注意力模块用于计算各所述编码器中的隐藏层向量权重以及所述解码器输出的历史文本序列片段权重,以使所述解码器基于各所述隐藏层向量权重以及各所述历史文本序列片段权重对所述特征向量进行解码。
根据本公开的一个或多个实施例,本公开提供了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如本公开实施例中任一所述的摘要生成方法。
根据本公开的一个或多个实施例,本公开提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例中任一所述的摘要生成方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (9)

1.一种摘要生成方法,其特征在于,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;所述目标语言按照设定规则随机指定;
获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标摘要文本,所述目标源文本和所述目标摘要文本标注有语言信息,若所述目标源文本为混合语言,则分别标注语言信息;
根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个;
将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
2.根据权利要求1所述的方法,其特征在于,所述样本对是通过如下方式获得:
获取第一语言对应的目标源文本;
获取与所述目标源文本匹配的备选摘要文本,所述备选摘要文本对应的语言为所述第一语言;
获取所述备选摘要文本匹配的目标摘要文本,所述目标摘要文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选摘要文本的语义与所述目标摘要文本的语义相同;
根据所述目标源文本和所述目标摘要文本,生成样本对。
3.根据权利要求1所述的方法,其特征在于,所述样本对是通过如下方式获得:
获取第一语言对应的目标源文本;
获取与所述目标源文本匹配的备选源文本,所述备选源文本对应的语言为第二语言,所述第一语言与所述第二语言不同;所述备选源文本的语义与所述目标源文本的语义相同;
获取所述备选源文本匹配的目标摘要文本,所述目标摘要文本对应的语言为所述第二语言;
根据所述目标源文本和所述目标摘要文本,生成样本对。
4.根据权利要求1所述的方法,其特征在于,所述样本对是通过如下方式获得:
获取第一语言对应的目标源文本;
在所述初始模型训练的过程中,将所述目标源文本输入到所述初始模型中,并指定所述目标语言为第二语言;
获取所述初始模型输出的与所述第二语言对应的目标摘要文本;
根据所述目标源文本和所述目标摘要文本,生成样本对。
5.根据权利要求1所述的方法,其特征在于,所述获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,包括:
通过所述摘要生成模型中的编码器提取各所述源文本中的源文本序列片段,并进行编码,形成所述源文本的目标特征向量;其中,所述摘要生成模型为Seq2Seq模型;
通过所述摘要生成模型中的解码器根据所述目标特征向量和所述目标语言,将所述目标特征向量映射为目标语言的文本序列,作为摘要文本。
6.根据权利要求5所述的方法,其特征在于,所述摘要生成模型还包括:注意力模块,所述注意力模块用于计算各所述编码器中的隐藏层向量权重以及所述解码器输出的历史文本序列片段权重,以使所述解码器基于各所述隐藏层向量权重以及各所述历史文本序列片段权重对所述特征向量进行解码。
7.一种摘要生成装置,其特征在于,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;所述目标语言按照设定规则随机指定;
样本对获取模块,用于获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标摘要文本,所述目标源文本和所述目标摘要文本标注有语言信息,若所述目标源文本为混合语言,则分别标注语言信息;根据所述样本对集合对初始模型进行训练,形成摘要生成模型,其中,所述样本对集合对应的语言数量包括至少两个;
摘要生成模块,用于将源文本和与所述目标语言匹配的指示信息输入到预先训练的摘要生成模型中,所述摘要生成模型用于将第一文本简化为第二文本,同时将所述第一文本对应的第一语言集合中的语言翻译成第二语言集合中的语言,并作为所述第二文本对应的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
摘要文本获取模块,用于获取所述摘要生成模型输出的与所述目标语言对应的摘要文本,其中,所述待翻译语言与所述目标语言不同。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一所述的摘要生成方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的摘要生成方法。
CN202010187730.2A 2020-03-17 2020-03-17 摘要生成方法、装置、电子设备及存储介质 Active CN111382261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010187730.2A CN111382261B (zh) 2020-03-17 2020-03-17 摘要生成方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010187730.2A CN111382261B (zh) 2020-03-17 2020-03-17 摘要生成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111382261A CN111382261A (zh) 2020-07-07
CN111382261B true CN111382261B (zh) 2021-06-18

Family

ID=71217692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010187730.2A Active CN111382261B (zh) 2020-03-17 2020-03-17 摘要生成方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111382261B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831816B (zh) * 2020-07-21 2023-06-27 虎博网络技术(上海)有限公司 核心内容处理方法、装置、电子设备和可读存储介质
CN112836040B (zh) * 2021-01-31 2022-09-23 云知声智能科技股份有限公司 多语言摘要的生成方法、装置、电子设备及计算机可读介质
CN112732902A (zh) * 2021-01-31 2021-04-30 云知声智能科技股份有限公司 跨语言摘要的生成方法、装置、电子设备及计算机可读介质
CN113656575B (zh) * 2021-07-13 2024-02-02 北京搜狗科技发展有限公司 训练数据的生成方法、装置、电子设备及可读介质
CN113535927A (zh) * 2021-07-30 2021-10-22 杭州网易智企科技有限公司 获取相似文本的方法、介质、装置和计算设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594998B2 (en) * 2010-07-30 2013-11-26 Ben-Gurion University Of The Negev Research And Development Authority Multilingual sentence extractor
CN102955853B (zh) * 2012-11-02 2019-05-28 北京百度网讯科技有限公司 一种跨语言文摘的生成方法及装置
CN109829161B (zh) * 2019-01-30 2023-08-04 延边大学 一种多语种自动摘要的方法
CN110378409B (zh) * 2019-07-15 2020-08-21 昆明理工大学 一种基于要素关联注意力机制的汉越新闻文档摘要生成方法

Also Published As

Publication number Publication date
CN111382261A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN111027331B (zh) 用于评估翻译质量的方法和装置
CN111382261B (zh) 摘要生成方法、装置、电子设备及存储介质
JP7112536B2 (ja) テキストにおける実体注目点のマイニング方法および装置、電子機器、コンピュータ読取可能な記憶媒体並びにコンピュータプログラム
CN111368559A (zh) 语音翻译方法、装置、电子设备及存储介质
CN111046677B (zh) 一种翻译模型的获取方法、装置、设备和存储介质
CN112633947B (zh) 文本生成模型生成方法、文本生成方法、装置及设备
CN111368560A (zh) 文本翻译方法、装置、电子设备及存储介质
CN111563390B (zh) 文本生成方法、装置和电子设备
CN111400454A (zh) 摘要生成方法、装置、电子设备及存储介质
WO2022111347A1 (zh) 信息处理方法、装置、电子设备和存储介质
CN113139391A (zh) 翻译模型的训练方法、装置、设备和存储介质
CN112380876A (zh) 基于多语言机器翻译模型的翻译方法、装置、设备和介质
CN112883968A (zh) 图像字符识别方法、装置、介质及电子设备
CN111414453A (zh) 结构化文本生成方法、装置、电子设备及计算机可读存储介质
CN111815274A (zh) 信息处理方法、装置和电子设备
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
CN111339789A (zh) 一种翻译模型训练方法、装置、电子设备及存储介质
CN114970470B (zh) 文案信息处理方法、装置、电子设备和计算机可读介质
WO2022121859A1 (zh) 口语信息处理方法、装置和电子设备
CN115620726A (zh) 语音文本生成方法、语音文本生成模型的训练方法、装置
CN115129845A (zh) 文本信息处理方法、装置和电子设备
CN114429629A (zh) 图像处理方法、装置、可读存储介质及电子设备
CN115967833A (zh) 视频生成方法、装置、设备计存储介质
CN114495112A (zh) 图像中文本的处理方法、装置、可读介质和电子设备
CN113591498A (zh) 翻译处理方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant