CN112633947A - 文本生成模型生成方法、文本生成方法、装置及设备 - Google Patents
文本生成模型生成方法、文本生成方法、装置及设备 Download PDFInfo
- Publication number
- CN112633947A CN112633947A CN202011643231.6A CN202011643231A CN112633947A CN 112633947 A CN112633947 A CN 112633947A CN 202011643231 A CN202011643231 A CN 202011643231A CN 112633947 A CN112633947 A CN 112633947A
- Authority
- CN
- China
- Prior art keywords
- text
- model
- training
- generation model
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0276—Advertisement creation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Accounting & Taxation (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Entrepreneurship & Innovation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开实施例公开了一种文本生成模型生成方法、文本生成方法、装置及设备,其中,文本生成模型生成方法包括:利用多个语种的文本样本以及多个语种间的平行语料训练初始化语言编码器;根据初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;基于文本样本、平行语料以及由文本样本构造生成的关键词与目标文本样本对,对初始文本生成模型进行范式训练;通过关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。本公开实施例解决了非汉语语种的文本样本数量少,不能充分利用多语种的丰富文本资源生成相关的目标文本的问题,实现了根据不同语种的关键字生成对应语种的文案。
Description
技术领域
本公开实施例涉及计算机应用领域,尤其涉及一种文本生成模型生成方法、文本生成方法、装置及设备。
背景技术
在产品推广的过程中,由于推广目标人群使用的语言不同,相应的推广文案就需要使用不同的语言,例如将一件产品推广给中国人就用汉语广告文案,将这件产品推广给日本人或欧美人就用日语或英语广告文案。广告平台希望能够根据广告主提供的任意语言的广告关键词,为广告主提供对应语言种类的相关且多样的广告文本。
但是,在目前能够生成广告文案的神经网络模型中,仅是根据单一语言的文本样本训练得到的,不能利用到多种语言的文本样本数据,也不能直接根据关键词生成对应的广告文案,以用于广告业务中为广告主提供服务。
公开内容
本公开实施例提供一种文本生成模型生成方法、文本生成方法、装置及设备,以实现根据某一种语言的查询关键字生成同种语言的对应的文本。
第一方面,本公开实施例提供了一种文本生成模型生成方法,该方法包括:
利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
第二方面,本公开实施例还提供了一种文本生成方法,该方法包括:
获取文本生成关键字,并基于本公开任一实施例所述的文本生成模型生成方法生成文本生成模型;
将所述文本生成关键字输入文本生成模型,得到目标文本。
第三方面,本公开实施例还提供了一种文本生成模型生成装置,该装置包括:
编码器预训练模块,用于利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
模型初始化模块,用于根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
模型范式训练模块,用于基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
模型参数确定模块,用于通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
第四方面,本公开实施例还提供了一种文本生成装置,该装置包括:
数据获取模块,用于获取文本生成关键字,并基于本公开任一实施例所述的文本生成模型生成方法生成文本生成模型;
文本生成模块,用于将所述文本生成关键字输入文本生成模型,得到目标文本。
第五方面,本公开实施例还提供了一种电子设备,该电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开任一实施例中所述的文本生成模型生成方法或文本生成方法。
第六方面,本公开实施例还提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开任一实施例中所述的文本生成模型生成方法或文本生成方法。
本公开实施例通过将多个语种的文本样本以及多个语种间的平行语料作为模型训练数据,先训练得到一个初始化语言编码器,使初始化语言编码器在语义上学习各文本样本;然后利用初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;进而,基于多个语种的文本样本和平行语料,对初始文本生成模型进行范式训练,使文本生成模型可根据输入的关键词而输出目标文本;最后,通过多个语种的文本样本中的关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。解决了现有技术中非汉语语种的文本样本数量少,不能充分利用多语种的丰富文本资源,不能根据不同语种关键词生成相关的目标广告的问题,实现了根据不同语种的关键字生成对应语种的目标文本。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是本公开实施例一中的文本生成模型生成方法的流程图;
图2是本公开实施例一中的初始化语言编码器模型的示意图;
图3是本公开实施例一中的去噪自编码器模型的示意图;
图4是本公开实施例一中的跨语言自编码器模型的示意图;
图5是本公开实施例一中的词语预测模型的示意图;
图6是本公开实施例二中的文本生成模型生成方法的流程图;
图7是本公开实施例三中的文本生成方法的流程图;
图8是本公开实施例四中的文本生成模型生成装置的结构示意图;
图9是本公开实施例五中的文本生成装置的结构示意图
图10是本公开实施例六中的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
实施例一
图1示出了本公开实施例一提供的一种文本生成模型生成方法的流程图,本公开实施例可适用于基于不同语种的文本语料进行文本生成模型训练的情况,该方法可以由文本生成模型生成装置实现,具体可通过电子设备中的软件和/或硬件来实施。
如图1所示,本公开实施例中提供的文本生成模型生成方法,包括如下步骤:
S110、利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器。
其中,多个语种可以是获取到一定数量的文本样本的语种,比较常见的包括汉语、英语、日语、德语、法语及汉语等多个语种,可以根据模型的适用范围选择一定数量的语种的文本内容作为模型训练的样本。进一步的,还可以根据模型应用的领域选择对应领域相关的文本内容作为文本样本。例如,医学领域,各语种的文本内容均为涉及医学领域的相关内容;或者,待训练模型应用领域为美妆领域,那么各语种的文本内容为均涉及美妆领域的相关文本内容。而多个语种间的平行语料则是指不同语种间,语义相同的文本内容。例如中文的“我很高兴”对应英文中的“I’m so happy”。在模型训练的过程中,每两个语种间的平行语料就可以作为一组平行语料样本。
具体的,在利用多个语种的文本样本以及多个语种间的平行语料预训练初始化语言编码器过程中,可以首先基于各语种文本样本,使用掩码语言模型(masked languagemodel,MLM)的范式进行模型训练,获得第一双向编码器;然后,将每两个语种的平行语料中的两种语言文本进行拼接之后,使用掩码语言模型的范式,即cross-lingual MLM(XMLM)范式,在第一双向编码器基础上进行模型训练得到初始文本生成模型,即一个跨语言的双向编码器。
示例性的,获得初始文本生成模型的过程可参考图2所示的示意图。在图2中,第一个阶段,输入编码器的是各单一语种的文本样本内容,在输入编码器(Encoder)之前,随机的将文本中一定比例的词语替换为掩膜标识【Mask】,然后再输入至Encoder中,由Encoder预测出被替换掉的词,并输出,直到训练得到满足损失函数要求的第一双向编码器。在第二个阶段,在第一双向编码器的基础之上,将平行语料中每一对平行句对的源语句(sourcesentence)和目标语句(target sentence)拼接起来,再做MLM。如将英文(EN)的“You are”和中文(ZH)的“你是”拼接起来,再通过MLM范式进行模型训练,最终得到初始文本生成模型。当然,MLM范式和XMLM范式的训练的顺序并没有严格的要求,也可以交替进行。图2中,Tokens是指字符序列的标记,在计算机语言处理的过程中,时间字符序列转换为标记(token)序列,以标记的形式进行记录以及使用的。Languages则表示输入的一组平行预料中源语句和目标语句对应的语种,Positions表示文本序列中各字符或字符串的位置。
通过本步骤的操作可以更加充分的利用已有的文本样本,进行文本语料的扩展。例如,在一个应用领域中,对于中国用户来说所能够获取的中文的文本内容较多,而能够获取到的其他语种(如日语、英语)同一应用领域的文本资料较少,便可以通过平行语料的转换,获取到其他语种中,未预先获取到的、且与中文对应的文本内容,从而丰富了不同语种间的语料。对于使用其他语言的用户来说同样。
S120、根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型。
具体的,在该步骤则是使用第一阶段(步骤S110)预训练好的初始文本生成模型,跨语言的双向编码器(cross-lingual encoder),分别初始化文本生成模型中的编码器Encoder和解码器Decoder,得到初始文本生成模型。有了第一阶段的训练基础,在接下来的模型范式训练过程中,初始文本生成模型可以更好的在语义上理解输入的文本样本,是模型能够更快地实现损失函数的收敛,完成模型训练的过程。
S130、基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练。
进行范式训练即使模型能够根据用户的使用需求,根据输入的关键字输输出对应的目标文本。可以直接使用各语种的文本样本中提取出的关键字与目标样本对应的文本样本对进行模型的范式训练,将关键字输入至Encoder中,使Decoder输出目标文本。
但是,考虑到在第一阶段的模型训练范式与自回归生成的方式存在一定的间隔,在本实施例中,采取通过生成任务进行模型的预训练,具体可以采取如下步骤:
首先,通过各语种的文本样本对初始文本生成模型训练,得到一个去噪自编码器。去噪自编码器(Denoising auto-encoding,DAE)是指给定一个输入x,对x增加一些噪声使之变为x′,编码器输入x′,解码器需要基于x′解码出原来的x。在本实施例中,对传统的DAE稍作改进,以得到语义联结更加紧密的生成模型。例如,利用泊松分布(λ=3)对各单个语种的文本样本进行采样预设长度的采样,将x中指定位置起连续长度为预设长度的序列替换为一个掩码符号【MASK】得到x′,然后,在编码器输入x′,解码器基于该加入噪声的输入信号解码出原始序列x。采样的预设长度占原始序列长度的15%左右。这一过程可参考图3所示的示意图。图3中,x为“Today is a rainy day!”,x′为“Today is a【MASK】!”。
然后,在去噪自编码器的基础上,基于平行语料进行模型训练得到跨语言自编码器。在该步骤中,与去燥自编码器的输入过程相似,区别在于使文本生成模型可以根据输入的文本,输出对应的平行语料文本。可参考图4所示的示意图。图4中,x为“Today is arainy day!”,x′为“Today is a【MASK】!”,输出是“今天是个雨天!”。
最后,将文本样本中提取出的关键词与目标文本样本作为样本对,对跨语言自编码器进行模型训练,目的是使模型预测出于关键词相关联的文本内容,完成所述初始文本生成模型的范式训练。具体是,将文本样本中的关键词与目标文本样本对pair<x,y>,编码器中输入关键词x,解码器中输入目标文本y中的前几个词,使解码器解码出后续的词语,相当于给解码器一个提示,可以更快地解码学习到要输出的内容。可参考图5所示的模型训练过程。在编码器中输入关键词“Weather”,在解码器中输入“Today is”,然后由解码器解析出“a rainy day!”。
S140、通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
经过范式训练的初始文本生成模型可以根据输入的文本内容进行语义上的识别,输出输入文本本身、对应的平行语料或者对应的目标文本。进而,利用各语种的文本样本中的关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,当模型预测输出与对应的结果相似度满足预设程度时,即可结束模型训练的过程。
本公开实施例的技术方案,通过将多个语种的文本样本以及多个语种间的平行语料作为模型训练数据,先训练得到一个初始化语言编码器,使初始化语言编码器在语义上学习各文本样本;然后利用初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;进而,基于多个语种的文本样本和平行语料,对初始文本生成模型进行范式训练,使文本生成模型可根据输入的关键词而输出目标文本;最后,通过多个语种的文本样本中的关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。解决了现有技术中非汉语语种的文本样本数量少,不能充分利用多语种的丰富文本资源,不能根据不同语种关键词生成相关的目标文本的问题,实现了根据不同语种的关键字生成对应语种的目标文本。
实施例二
本实施例在上述实施例基础上,进一步地,对文本样本数据构造过程进行描述,与上述实施例提出的模型训练方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例。
图6示出了本公开实施例二提供的一种文本生成模型生成方法的流程图,本公开实施例中提供的文本生成模型生成方法包括如下步骤:
S210、基于多个语种的文本样本以及所述多个语种间的平行语料进行关键字与目标文本样本对数据构造。
在一种具体的实施例中,文本生成模型的应用场景为广告文案的生成,多个语种的文本样本即为多个语种的广告文本。当然,现有的广告文本数据中,是没有现成的对应的关键字(也即物品的搜索词query),需要预先提取出关键字,构造出关键字-目标文本样本对数据,以进行最终的模型范式训练。
首先,可以使用词性标注工具(pos tagging)对各语种的文本样本进行标注,获得文本样本中各个词语的词性标签。然后,基于词性标签在文本样本中抽取所有的名词短语,包括动名词短语、形容词名词以及名词性短语,并建立各名词短语与对应文本样本的关联关系。通常,一个文本样本,可以抽取出多个名词短语,从而构造出多个关键词与对应的目标文本样本对。然后,要进一步的进行语义过滤,将名词短语与目标文本样本间语义相关性低的关键词与目标文本样本对,保留语义相关性大于预设阈值的关键词与目标文本样本对。其中,可以通过phrase embedding进行文本过滤。
在上述过程的基础上,还可以进一步进行关键词与目标文本样本对的扩充。具体是,通过TextCNN分别得到已经构造出的关键词与目标文本样本对中的关键词的向量表示和目标文本样本的向量表示;然后,通过negtive sampling(负采样)的方式优化各关键词向量与目标文本样本向量在语义上的相关性;从而可以基于embedding进行关键词与目标文本样本对的扩充。具体是,分别计算已经构造出的关键词与目标文本样本对中,每一个关键词的向量表示与全部目标文本的向量表示的间相关性,将相关性数值满足预设条件的关键词与目标文本样本组成一个关键词与目标文本样本对。示例性的,从中文文本1中提取出了名词短语A、B和C,从中文文本2中提取出了名词短语D和E;经过各名词短语(A、B、C、D和E)分别与中文文本1和中文文本2间语义相关性的计算,若名词短语D与中文文本1在语义上的相关性满足预设条件,D可以与中文文本1建立关键词-目标文本样本对的对应关系。通过上述方式,通常能够将关键词-目标文本样本对数据扩充2~5倍。
S220、利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器。
S230、根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型。
S240、基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练。
S250、对所述关键字与目标文本样本对数据进行分类,通过不同类别的关键字与目标文本样本对数据分别对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
具体的,可以根据样本数据质量将关键词与目标文本样本对至少分为第一样本集合和第二样本集合,其中,第二样本集合中的样本质量优于第一样本集合中的样本质量;然后,先使用第一样本集合中的样本数据对经过范式训练的初始文本生成模型进行初步参数调整,再在初步参数调整的基础上,使用第二样本集合中的样本数据对经过范式训练的初始文本生成模型进行参数调整。举例来说,假设作为文本样本的广告文本来源于不同渠道的广告数据,其中,部分渠道的广告较为符合广告商对广告风格等方面的要求,其余部分渠道的广告文案则没有很贴近广告商用户的需求。可以先用没有很贴近广告商需求的广告文案作为第一样本集合中的样本数据,进行模型的训练进行参数初步调整,再用贴近广告商用户需求广告文案作为第二样本集合中的样本进行模型训练,对初步调整过的模型进一步的进行调整,从而确定最终的文本生成模型。
本公开实施例的技术方案,通过在上述实施例的基础上,首先基于各语种的文本样本进行关键字-目标文本样本对的数据构造,然后通过将多个语种的文本样本以及多个语种间的平行语料作为模型训练数据,得到一个初始化语言编码器;进而利用初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;基于多个语种的文本样本、平行语料以及构造出的关键字-目标文本样本对数据,对初始文本生成模型进行范式训练,使文本生成模型可根据输入的关键词而输出目标文本;最后,通过多个语种的文本样本中的关键词与目标文本样本对,分阶段对经过范式训练的初始文本生成模型进行参数调整,得到最终的优化的文本生成模型。解决了现有技术中非汉语语种的文本样本数量少,不能充分利用多语种的丰富文本资源,不能根据不同语种关键词生成相关的目标文本的问题,实现了关键字-目标文本样本对数量扩增,并能够根据不同语种的关键字生成对应语种的目标文本,若应用在在广告文案领域,则可以基于关键词生成目标广告文案。
实施例三
图7示出了本公开实施例三提供的一种文本生成方法的流程图,本公开实施例可适用于根据关键词生成目标文本的情况,该方法可以由文本生成装置实现,具体可通过移动终端中的软件和/或硬件来实施。
如图7所示,文本生成方法包括如下步骤:
S310、获取文本生成关键字,并基于本公开任一实施例所述的文本模型生成方法生成文本生成模型。
文本生成关键字,可以是用户提供的用于获取目标文本的关键字。当生成的目标文本为与文本生成关键字相关的广告文案时,基于本公开任一实施例提供的文本模型生成方法生成文本生成模型的样本数据即为目前可获取到的不同语种的广告文案数据,以及不同语种间的平行语料。
S320、将所述文本生成关键字输入文本生成模型,得到目标文本。
将文本生成关键字输入至文本生成模型中,模型经过计算便可以输出一个对应的相关性最高的目标文本。例如,将关键字“蕾丝连衣裙”输入至模型中,输出的广告文案可以是“秋季新款蕾丝连衣裙,修身显瘦”。
在一种优选的实施例中,在使用文本生成模型前,对模型的输出参数进行设置,使文本生成模型的解码器以贪婪解码(greedy decoding)的方式进行解码,从而将文本生成关键字输入文本生成模型后,可以得到多个目标文本。示例性的,可以对文本生成模型的输出过程使用约束取样方式进行设置,对前K个step,对预测的分布加一个temperature使之变得更加sharp,使用sampling的方式解码;从第K+1个step开始,使用greedy decoding的方式解码,得到多个输出。即针对输出的目标文本中的前K个字,只取每个字对应的概率最高的字,针对输出的第K+1个字,根据设置可以输出概率最高的前几个字(如3个),那么,多个第K+1个字与前K个字进行组合,可以得出多个目标文本。若后续第K+2个字也有多个选择,则可以获得更多的目标文本。可以提供给用户更多的目标文本,从中选择最优方案。仍然以关键字“蕾丝连衣裙”为例,对应输出的目标文本还可以包括“秋季新款蕾丝连衣裙,设计师高定款”和“秋季新款蕾丝连衣裙,修身有气质”等等。
本公开实施例的技术方案,通过关键字输入至文本生成模型中,可直接获取到与关键字相关的目标文本,还可以使文本生成模型解码输出多个目标文本从而提供了一种直接生成广告文案的方式。而且文本生成模型是基于多语种的文本样本进行训练的,可以生成多个语种的目标文本。解决了现有技术中不能根据不同语种关键词生成相关的目标文本的问题,实现了根据不同语种的关键字生成对应语种的目标文本,若应用在在广告文案领域,则可以基于关键词生成目标广告文案。
实施例四
图8示出了本公开实施例四提供的一种文本生成模型生成装置的结构示意图,本公开实施例可适用于基于不同语种的文本语料进行文本生成模型训练的情况,通过本公开提供的文本生成模型生成可实现上述实施例提供的文本生成模型生成方法。
如图8所示,本公开实施例中文本生成模型生成装置,包括:编码器预训练模块410、模型初始化模块420、模型范式训练模块430和模型参数确定模块440。
其中,编码器预训练模块410,用于利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;模型初始化模块420,根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;模型范式训练模块430,用于基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;模型参数确定模块440,用于通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
本实施例的技术方案,通过将多个语种的文本样本以及多个语种间的平行语料作为模型训练数据,先训练得到一个初始化语言编码器,使初始化语言编码器在语义上学习各文本样本;然后利用初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;进而,基于多个语种的文本样本和平行语料,对初始文本生成模型进行范式训练,使文本生成模型可根据输入的关键词而输出目标文本;最后,通过多个语种的文本样本中的关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。解决了现有技术中非汉语语种的文本样本数量少,不能充分利用多语种的丰富文本资源,不能根据不同语种关键词生成相关的目标广告的问题,实现了根据不同语种的关键字生成对应语种的目标文本。
可选的,编码器预训练模块410具体用于:
基于各语种文本样本,使用掩码语言模型的范式进行模型训练,获得第一双向编码器;
将每两个语种的平行语料中的两种语言文本进行拼接之后,使用所述掩码语言模型的范式,在所述第一双向编码器基础上进行模型训练得到所述初始文本生成模型。
可选的,所述模型范式训练模块430包括:
第一范式训练子模块,用于通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器;
第二范式训练子模块,用于在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器;
第三范式训练子模块,用于利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练。
可选的,所述第一范式训练子模块具体用于:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述初始文本生成模型的编码器进行模型训练,使所述初始文本生成模型的解码器输出未进行序列替换的原始文本样本。
可选的,所述第二范式训练子模块具体用于:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述去噪自编码器的编码器进行模型训练,使所述去噪自编码器的解码器输出未进行序列替换的原始文本样本的平行语料。
可选的,所述第三范式训练子模块具体用于:
针对每个关键词与目标文本样本对,将关键词输入至所述跨语言自编码器的编码器,并将目标文本中的部分词语输入至所述跨语言自编码器的解码器进行模型训练,使所述跨语言自编码器的解码器输出所述目标文本中未被输入解码器的词语。
可选的,所述模型参数确定模块440具体用于:
根据样本数据质量将所述关键词与目标文本样本对分为第一样本集合和第二样本集合,其中,所述第二样本集合中的样本质量优于所述第一样本集合中的样本质量;
使用所述第一样本集合中的样本数据对经过范式训练的初始文本生成模型进行初步参数调整;
在初步参数调整的基础上,使用所述第二样本集合中的样本数据对经过范式训练的初始文本生成模型进行参数调整。
可选的,文本生成模型生成装置还包括样本数据构造模块:
用于使用词性标注工具对各语种的文本样本进行词性标注,并根据标注结果抽取出文本样本中所有的名词短语;
过滤掉所述名词短语中与对应的文本样本语义相关性小于预设阈值的名词短语;
将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对。
可选的,样本数据构造模块还用于:
在将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对之后,优化所述关键词与目标文本样本对的中关键词的向量表示和目标文本样本的向量表示;
根据优化后的关键词的向量表示和目标文本样本的向量表示,分别计算每一个关键词与全部目标文本样本的相关性;
将相关性满足预设条件的关键词与目标文本样本,组成所述关键词与目标文本样本对。
可选的,所述文本样本为多个语种的广告文本。
本公开实施例提供的文本生成模型生成装置,与上述实施例提供的文本生成模型生成方法属于同一发明构思,未在本公开实施例中详尽描述的技术细节可参见上述实施例,并且本公开实施例与上述实施例具有相同的有益效果。
实施例五
图9示出了本公开实施例五提供的一种文本生成装置的结构示意图,本公开实施例可适用于根据关键词生成目标文本的情况,通过本公开提供的文本生成装置可实现上述实施例提供的文本生成方法。
如图9所示,本公开实施例中文本生成装置,包括:数据获取模块510和文本生成模块520。
其中,数据获取模块510,用于获取文本生成关键字,并基于本公开任一实施例描述的文本生成模块生成方法生成文本生成模型;文本生成模块520,用于将所述文本生成关键字输入文本生成模型,得到目标文本。
可选的,文本生成装置还包括模型解码模块,用于:
在使用所述文本生成模型前,设置所述文本生成模型的解码器参数,使所述解码器以贪婪解码的方式输出多个目标文本。
本公开实施例的技术方案,通过关键字输入至文本生成模型中,可直接获取到与关键字相关的目标文本,还可以使文本生成模型解码输出多个目标文本从而提供了一种直接生成广告文案的方式。而且文本生成模型是基于多语种的文本样本进行训练的,可以生成多个语种的目标文本。解决了现有技术中不能根据不同语种关键词生成相关的目标文本的问题,实现了根据不同语种的关键字生成对应语种的目标文本,若应用在在广告文案领域,则可以基于关键词生成目标广告文案。
本公开实施例提供的文本生成装置,与上述实施例提供的文本生成方法属于同一发明构思,未在本公开实施例中详尽描述的技术细节可参见上述实施例,并且本公开实施例与上述实施例具有相同的有益效果。
实施例六
下面参考图10,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图10示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置606加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置604;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置606;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置606被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是,但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;基于所述多个语种的文本样本和所述平行语料,对所述初始文本生成模型进行范式训练;通过所述多个语种的文本样本中的关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
获取文本生成关键字,并基于本公开任一实施例所述的文本生成模型生成方法生成文本生成模型;将所述文本生成关键字输入文本生成模型,得到目标文本。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,【示例一】提供了一种文本生成模型生成方法包括:
利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
根据本公开的一个或多个实施例,【示例二】提供了示例一的方法,还包括:
所述利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器,包括:
基于各语种文本样本,使用掩码语言模型的范式进行模型训练,获得第一双向编码器;
将每两个语种的平行语料中的两种语言文本进行拼接之后,使用所述掩码语言模型的范式,在所述第一双向编码器基础上进行模型训练得到所述初始文本生成模型。
根据本公开的一个或多个实施例,【示例三】提供了示例一的方法,还包括:
所述基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练:
通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器;
在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器;
利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练。
根据本公开的一个或多个实施例,【示例四】提供了示例三的方法,还包括:
所述通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器,包括:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述初始文本生成模型的编码器进行模型训练,使所述初始文本生成模型的解码器输出未进行序列替换的原始文本样本。
根据本公开的一个或多个实施例,【示例五】提供了示例三的方法,还包括:
所述在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器,包括:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述去噪自编码器的编码器进行模型训练,使所述去噪自编码器的解码器输出未进行序列替换的原始文本样本的平行语料。
根据本公开的一个或多个实施例,【示例六】提供了示例三的方法,还包括:
所述利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练,包括:
针对每个关键词与目标文本样本对,将关键词输入至所述跨语言自编码器的编码器,并将目标文本中的部分词语输入至所述跨语言自编码器的解码器进行模型训练,使所述跨语言自编码器的解码器输出所述目标文本中未被输入解码器的词语。
根据本公开的一个或多个实施例,【示例七】提供了示例一的方法,还包括:
所述通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,包括:
根据样本数据质量将所述关键词与目标文本样本对分为第一样本集合和第二样本集合,其中,所述第二样本集合中的样本质量优于所述第一样本集合中的样本质量;
使用所述第一样本集合中的样本数据对经过范式训练的初始文本生成模型进行初步参数调整;
在初步参数调整的基础上,使用所述第二样本集合中的样本数据对经过范式训练的初始文本生成模型进行参数调整。
根据本公开的一个或多个实施例,【示例八】提供了示例一的方法,还包括:
所述关键词与目标文本样本对的构造过程包括:
使用词性标注工具对各语种的文本样本进行词性标注,并根据标注结果抽取出文本样本中所有的名词短语;
过滤掉所述名词短语中与对应的文本样本语义相关性小于预设阈值的名词短语;
将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对。
根据本公开的一个或多个实施例,【示例九】提供了示例八的方法,还包括:
在将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对之后,所述构造过程还包括:
优化所述关键词与目标文本样本对的中关键词的向量表示和目标文本样本的向量表示;
根据优化后的关键词的向量表示和目标文本样本的向量表示,分别计算每一个关键词与全部目标文本样本的相关性;
将相关性满足预设条件的关键词与目标文本样本,组成所述关键词与目标文本样本对。
根据本公开的一个或多个实施例,【示例十】提供了示例一的方法,还包括:
所述文本样本为多个语种的广告文本。
根据本公开的一个或多个实施例,【示例十一】提供了一种文本生成方法包括:
获取文本生成关键字,并基于本公开任一实施例所述的文本生成模型生成方法生成文本生成模型;
将所述文本生成关键字输入文本生成模型,得到目标文本。
根据本公开的一个或多个实施例,【示例十二】提供了示例十一的方法,还包括:
在使用所述文本生成模型前,设置所述文本生成模型的解码器参数,使所述解码器以贪婪解码的方式输出多个目标文本。
根据本公开的一个或多个实施例,【示例十三】提供了一种文本生成模型生成装置,包括:
编码器预训练模块,用于利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
模型初始化模块,根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
模型范式训练模块,用于基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
模型参数确定模块,用于通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
根据本公开的一个或多个实施例,【示例十四】提供了示例十三的装置,还包括:
编码器预训练模块具体用于:
基于各语种文本样本,使用掩码语言模型的范式进行模型训练,获得第一双向编码器;
将每两个语种的平行语料中的两种语言文本进行拼接之后,使用所述掩码语言模型的范式,在所述第一双向编码器基础上进行模型训练得到所述初始文本生成模型。
根据本公开的一个或多个实施例,【示例十五】提供了示例十三的装置,还包括:
所述模型范式训练模块包括:
第一范式训练子模块,用于通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器;
第二范式训练子模块,用于在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器;
第三范式训练子模块,用于利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练。
根据本公开的一个或多个实施例,【示例十六】提供了示例十五的装置,还包括:
所述第一范式训练子模块具体用于:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述初始文本生成模型的编码器进行模型训练,使所述初始文本生成模型的解码器输出未进行序列替换的原始文本样本。
根据本公开的一个或多个实施例,【示例十七】提供了示例十五的装置,还包括:
所述第二范式训练子模块具体用于:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述去噪自编码器的编码器进行模型训练,使所述去噪自编码器的解码器输出未进行序列替换的原始文本样本的平行语料。
根据本公开的一个或多个实施例,【示例十八】提供了示例十五的装置,还包括:
所述第三范式训练子模块具体用于:
针对每个关键词与目标文本样本对,将关键词输入至所述跨语言自编码器的编码器,并将目标文本中的部分词语输入至所述跨语言自编码器的解码器进行模型训练,使所述跨语言自编码器的解码器输出所述目标文本中未被输入解码器的词语。
根据本公开的一个或多个实施例,【示例十九】提供了示例十三的装置,还包括:
所述模型参数确定模块具体用于:
根据样本数据质量将所述关键词与目标文本样本对分为第一样本集合和第二样本集合,其中,所述第二样本集合中的样本质量优于所述第一样本集合中的样本质量;
使用所述第一样本集合中的样本数据对经过范式训练的初始文本生成模型进行初步参数调整;
在初步参数调整的基础上,使用所述第二样本集合中的样本数据对经过范式训练的初始文本生成模型进行参数调整。
根据本公开的一个或多个实施例,【示例二十】提供了示例十三的装置,还包括样本数据构造模块:
用于使用词性标注工具对各语种的文本样本进行词性标注,并根据标注结果抽取出文本样本中所有的名词短语;
过滤掉所述名词短语中与对应的文本样本语义相关性小于预设阈值的名词短语;
将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对。
根据本公开的一个或多个实施例,【示例二十一】提供了示例二十的装置,还包括:
样本数据构造模块还用于:
在将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对之后,优化所述关键词与目标文本样本对的中关键词的向量表示和目标文本样本的向量表示;
根据优化后的关键词的向量表示和目标文本样本的向量表示,分别计算每一个关键词与全部目标文本样本的相关性;
将相关性满足预设条件的关键词与目标文本样本,组成所述关键词与目标文本样本对。
根据本公开的一个或多个实施例,【示例二十二】提供了示例十三的装置,还包括:
所述文本样本为多个语种的广告文本。
根据本公开的一个或多个实施例,【示例二十三】提供了一种文本生成装置包括:
数据获取模块,用于获取文本生成关键字,并基于本公开任一实施例所述的文本生成模型生成方法生成文本生成模型;
文本生成模块,用于将所述文本生成关键字输入文本生成模型,得到目标文本。
根据本公开的一个或多个实施例,【示例二十四】提供了示例二十三的装置,还包括模型解码模块,用于:
在使用所述文本生成模型前,设置所述文本生成模型的解码器参数,使所述解码器以贪婪解码的方式输出多个目标文本。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (16)
1.一种文本生成模型生成方法,其特征在于,包括:
利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
2.根据权利要求1所述的方法,其特征在于,所述利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器,包括:
基于各语种文本样本,使用掩码语言模型的范式进行模型训练,获得第一双向编码器;
将每两个语种的平行语料中的两种语言文本进行拼接之后,使用所述掩码语言模型的范式,在所述第一双向编码器基础上进行模型训练得到所述初始文本生成模型。
3.根据权利要求1所述的方法,其特征在于,所述基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练,包括:
通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器;
在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器;
利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练。
4.根据权利要求3所述的方法,其特征在于,所述通过各语种的文本样本对所述初始文本生成模型训练,得到一个去噪自编码器,包括:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述初始文本生成模型的编码器进行模型训练,使所述初始文本生成模型的解码器输出未进行序列替换的原始文本样本。
5.根据权利要求3所述的方法,其特征在于,所述在所述去噪自编码器的基础上,基于所述平行语料进行模型训练得到跨语言自编码器,包括:
将每一个文本样本中指定位置的预设长度的序列替换为掩码符号输入至所述去噪自编码器的编码器进行模型训练,使所述去噪自编码器的解码器输出未进行序列替换的原始文本样本的平行语料。
6.根据权利要求3所述的方法,其特征在于,所述利用所述关键词与目标文本样本对,对所述跨语言自编码器进行模型训练,完成所述初始文本生成模型的范式训练,包括:
针对每个关键词与目标文本样本对,将关键词输入至所述跨语言自编码器的编码器,并将目标文本中的部分词语输入至所述跨语言自编码器的解码器进行模型训练,使所述跨语言自编码器的解码器输出所述目标文本中未被输入解码器的词语。
7.根据权利要求1所述的方法,其特征在于,所述通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,包括:
根据样本数据质量将所述关键词与目标文本样本对分为第一样本集合和第二样本集合,其中,所述第二样本集合中的样本质量优于所述第一样本集合中的样本质量;
使用所述第一样本集合中的样本数据对经过范式训练的初始文本生成模型进行初步参数调整;
在初步参数调整的基础上,使用所述第二样本集合中的样本数据对经过范式训练的初始文本生成模型进行参数调整。
8.根据权利要求1所述的方法,其特征在于,所述关键词与目标文本样本对的构造过程包括:
使用词性标注工具对各语种的文本样本进行词性标注,并根据标注结果抽取出文本样本中所有的名词短语;
过滤掉所述名词短语中与对应的文本样本语义相关性小于预设阈值的名词短语;
将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对。
9.根据权利要求8所述的方法,其特征在于,在将过滤后的名词短语分别与对应的文本样本建立关联关系,组成所述关键词与目标文本样本对之后,所述构造过程还包括:
优化所述关键词与目标文本样本对的中关键词的向量表示和目标文本样本的向量表示;
根据优化后的关键词的向量表示和目标文本样本的向量表示,分别计算每一个关键词与全部目标文本样本的相关性;
将相关性满足预设条件的关键词与目标文本样本,组成所述关键词与目标文本样本对。
10.根据权利要求1-9中任一所述的方法,其特征在于,所述文本样本为多个语种的广告文本。
11.一种文本生成方法,其特征在于,包括:
获取文本生成关键字,并基于权利要求1-10中任一方法生成文本生成模型;
将所述文本生成关键字输入文本生成模型,得到目标文本。
12.根据权利要求11所述的方法,其特征在于,还包括:
在使用所述文本生成模型前,设置所述文本生成模型的解码器参数,使所述解码器以贪婪解码的方式输出多个目标文本。
13.一种文本生成模型生成装置,其特征在于,包括:
编码器预训练模块,用于利用多个语种的文本样本以及所述多个语种间的平行语料训练初始化语言编码器;
模型初始化模块,用于根据所述初始化语言编码器的参数初始化文本生成模型,得到初始文本生成模型;
模型范式训练模块,用于基于所述多个语种的文本样本、所述平行语料以及由所述多个语种的文本样本构造生成的关键词与目标文本样本对,对所述初始文本生成模型进行范式训练;
模型参数确定模块,用于通过所述关键词与目标文本样本对,对经过范式训练的初始文本生成模型进行参数调整,得到最终的文本生成模型。
14.一种文本生成装置,其特征在于,包括:
数据获取模块,用于获取文本生成关键字,并基于权利要求1-10中任一所述的方法生成文本生成模型;
文本生成模块,用于将所述文本生成关键字输入文本生成模型,得到目标文本。
15.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的文本生成模型生成方法,或如权利要求11-12中任一所述的文本生成方法。
16.一种计算机存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的文本生成模型生成方法,或如权利要求11-12中任一所述的文本生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011643231.6A CN112633947B (zh) | 2020-12-30 | 2020-12-30 | 文本生成模型生成方法、文本生成方法、装置及设备 |
PCT/CN2021/137114 WO2022143105A1 (zh) | 2020-12-30 | 2021-12-10 | 文本生成模型生成方法、文本生成方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011643231.6A CN112633947B (zh) | 2020-12-30 | 2020-12-30 | 文本生成模型生成方法、文本生成方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112633947A true CN112633947A (zh) | 2021-04-09 |
CN112633947B CN112633947B (zh) | 2023-04-07 |
Family
ID=75290592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011643231.6A Active CN112633947B (zh) | 2020-12-30 | 2020-12-30 | 文本生成模型生成方法、文本生成方法、装置及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112633947B (zh) |
WO (1) | WO2022143105A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989205A (zh) * | 2021-04-14 | 2021-06-18 | 北京有竹居网络技术有限公司 | 媒体文案推荐方法、装置、介质及电子设备 |
CN113656573A (zh) * | 2021-08-27 | 2021-11-16 | 北京大数医达科技有限公司 | 文本信息生成方法、装置、终端设备 |
CN114171001A (zh) * | 2021-12-06 | 2022-03-11 | 合肥讯飞数码科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN114358004A (zh) * | 2021-12-27 | 2022-04-15 | 有米科技股份有限公司 | 一种营销文本生成方法及装置 |
WO2022143105A1 (zh) * | 2020-12-30 | 2022-07-07 | 北京有竹居网络技术有限公司 | 文本生成模型生成方法、文本生成方法、装置及设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116844523B (zh) * | 2023-08-31 | 2023-11-10 | 深圳市声扬科技有限公司 | 语音数据生成方法、装置、电子设备及可读存储介质 |
CN116894431B (zh) * | 2023-09-07 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 文本处理模型训练方法、文本改写方法及装置和存储介质 |
CN116894427B (zh) * | 2023-09-08 | 2024-02-27 | 联通在线信息科技有限公司 | 一种中英文信息融合的数据分级方法、服务器及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276081A (zh) * | 2019-06-06 | 2019-09-24 | 百度在线网络技术(北京)有限公司 | 文本生成方法、装置及存储介质 |
CN111709248A (zh) * | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
WO2020242567A1 (en) * | 2019-05-27 | 2020-12-03 | Microsoft Technology Licensing, Llc | Cross-lingual task training |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633947B (zh) * | 2020-12-30 | 2023-04-07 | 北京有竹居网络技术有限公司 | 文本生成模型生成方法、文本生成方法、装置及设备 |
-
2020
- 2020-12-30 CN CN202011643231.6A patent/CN112633947B/zh active Active
-
2021
- 2021-12-10 WO PCT/CN2021/137114 patent/WO2022143105A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020242567A1 (en) * | 2019-05-27 | 2020-12-03 | Microsoft Technology Licensing, Llc | Cross-lingual task training |
CN110276081A (zh) * | 2019-06-06 | 2019-09-24 | 百度在线网络技术(北京)有限公司 | 文本生成方法、装置及存储介质 |
CN111709248A (zh) * | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022143105A1 (zh) * | 2020-12-30 | 2022-07-07 | 北京有竹居网络技术有限公司 | 文本生成模型生成方法、文本生成方法、装置及设备 |
CN112989205A (zh) * | 2021-04-14 | 2021-06-18 | 北京有竹居网络技术有限公司 | 媒体文案推荐方法、装置、介质及电子设备 |
CN113656573A (zh) * | 2021-08-27 | 2021-11-16 | 北京大数医达科技有限公司 | 文本信息生成方法、装置、终端设备 |
CN113656573B (zh) * | 2021-08-27 | 2024-02-06 | 北京大数医达科技有限公司 | 文本信息生成方法、装置、终端设备 |
CN114171001A (zh) * | 2021-12-06 | 2022-03-11 | 合肥讯飞数码科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN114358004A (zh) * | 2021-12-27 | 2022-04-15 | 有米科技股份有限公司 | 一种营销文本生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112633947B (zh) | 2023-04-07 |
WO2022143105A1 (zh) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112633947B (zh) | 文本生成模型生成方法、文本生成方法、装置及设备 | |
JP7112536B2 (ja) | テキストにおける実体注目点のマイニング方法および装置、電子機器、コンピュータ読取可能な記憶媒体並びにコンピュータプログラム | |
CN110717017B (zh) | 一种处理语料的方法 | |
CN113139391B (zh) | 翻译模型的训练方法、装置、设备和存储介质 | |
CN114254660A (zh) | 多模态翻译方法、装置、电子设备及计算机可读存储介质 | |
CN111382261B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN104573099A (zh) | 题目的搜索方法及装置 | |
CN112188311B (zh) | 用于确定新闻的视频素材的方法和装置 | |
CN111368560A (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
CN111339789A (zh) | 一种翻译模型训练方法、装置、电子设备及存储介质 | |
US20240265214A1 (en) | Translation processing method, apparatus, device and medium | |
CN115640815A (zh) | 翻译方法、装置、可读介质及电子设备 | |
CN111400454A (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN113076756A (zh) | 一种文本生成方法和装置 | |
CN114722832A (zh) | 一种摘要提取方法、装置、设备以及存储介质 | |
CN111459959B (zh) | 用于更新事件集合的方法和装置 | |
CN114490946A (zh) | 基于Xlnet模型的类案检索方法、系统及设备 | |
CN114613351A (zh) | 韵律预测方法、装置、可读介质及电子设备 | |
CN112906372A (zh) | 一种文本简化方法、装置、设备及存储介质 | |
CN112819513A (zh) | 一种文本链生成方法、装置、设备及介质 | |
CN114385781B (zh) | 基于语句模型的接口文件推荐方法、装置、设备和介质 | |
CN112307152A (zh) | 一种数据解析方法、装置、电子设备及存储介质 | |
CN115017986A (zh) | 模型生成方法、词义消歧方法、装置、介质以及设备 | |
CN118733761A (zh) | 文本分类模型的训练方法和装置 | |
CN114896970A (zh) | 文本主题分析方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |