CN111931520B - 自然语言处理模型的训练方法和装置 - Google Patents
自然语言处理模型的训练方法和装置 Download PDFInfo
- Publication number
- CN111931520B CN111931520B CN202011106273.6A CN202011106273A CN111931520B CN 111931520 B CN111931520 B CN 111931520B CN 202011106273 A CN202011106273 A CN 202011106273A CN 111931520 B CN111931520 B CN 111931520B
- Authority
- CN
- China
- Prior art keywords
- meta
- model
- training
- models
- natural language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 217
- 238000003058 natural language processing Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000012216 screening Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims description 49
- 230000006978 adaptation Effects 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 20
- 230000003044 adaptive effect Effects 0.000 abstract description 17
- 238000012545 processing Methods 0.000 abstract description 15
- 230000000717 retained effect Effects 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 4
- 239000003795 chemical substances by application Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 9
- 238000013519 translation Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000014639 sexual reproduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了自然语言处理模型的训练方法和装置,涉及深度学习和自然语言处理技术领域。具体实现方案为:根据已获取到的自然语言处理的元模型集合,生成衍生模型,并将多个衍生模型作为元模型添加至元模型集合中,增加元模型集合中的模型数量,以备后续对元模型集合进行元训练;之后,根据经过训练的元模型的性能参数,对元模型集合中的元模型进行筛选,从而得到性能良好的元模型进行自然语言处理任务的适配训练。由于该方案采用了对元模型进行丰富后再筛选的方式,使得筛选保留的元模型性能得到提升,从而无论适配训练涉及何种领域或语种,在后续对应领域或语种的自然语言处理任务上均得到较为准确的处理结果。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及深度学习和自然语言处理技术领域,尤其涉及自然语言处理模型的训练方法和装置。
背景技术
在自然语言处理技术领域中,在一些场景下,对模型进行训练,使得模型对特定语种完成语义理解、翻译、问答等任务,一旦切换了语种进行训练,则执行效果不佳;在另一些场景下,可使模型完成特定领域的语义理解、翻译、问答等任务,若对该模型进行其他领域的相似任务训练,使其用于其他领域执行这类任务,同样出现了执行效果不佳的问题。可见现有的自然语言处理模型应用场景受限。
发明内容
提供了一种自然语言处理模型的训练方法和装置。
根据第一方面,提供了一种自然语言处理模型的训练方法,通过将多个衍生模型添加到元模型集合中,使元模型集合数量扩大,并且根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,由于该方案采用了对元模型进行丰富后再筛选的方式,使得筛选保留的元模型性能得到提升,从而在对筛选保留的元模型进行所需领域或语种的适配训练后执行对应领域或语种的自然语言处理任务时,不会受限于自然语言处理任务的领域或语种。无论适配训练涉及何种领域或语种,在后续对应领域或语种的自然语言处理任务上均得到较为准确的处理结果。
本申请第二方面提出了一种自然语言处理模型的训练装置。
本申请第三方面提出了一种电子设备。
本申请第四方面提出了一种存储有计算机指令的非瞬时计算机可读存储介质。
本申请第一方面实施例提出了一种自然语言处理模型的训练方法,包括:获取自然语言处理的元模型集合;根据所述元模型集合,生成衍生模型,并将所述衍生模型作为元模型添加至所述元模型集合中;对所述元模型集合进行元训练,以确定所述元模型集合中经过训练的每一元模型的性能参数;根据所述性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型。
本申请实施例的自然语言处理模型的训练方法,通过获取自然语言处理的元模型集合;根据所述元模型集合,生成衍生模型,并将所述衍生模型作为元模型添加至所述元模型集合中;对所述元模型集合进行元训练,以确定所述元模型集合中经过训练的每一元模型的性能参数;根据所述性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型。该方法通过将多个衍生模型添加到元模型集合中,使元模型集合数量扩大,并且根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,从而使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高了训练效率。同时,由于该方案采用了对元模型进行丰富后再筛选的方式,使得筛选保留的元模型性能得到提升,从而在对筛选保留的元模型进行所需领域或语种的适配训练后执行对应领域或语种的自然语言处理任务时,不会受限于自然语言处理任务的领域或语种。无论适配训练涉及何种领域或语种,在后续对应领域或语种的自然语言处理任务上均得到较为准确的处理结果。
本申请第二方面实施例提出了一种自然语言处理模型的训练装置,包括:获取模块,用于获取自然语言处理的元模型集合;生成模块,用于根据所述元模型集合,生成衍生模型,并将所述衍生模型作为元模型添加至所述元模型集合中;训练模块,用于对所述元模型集合进行元训练,以确定所述元模型集合中经过训练的每一元模型的性能参数;筛选模块,用于根据所述性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型。
本申请第三方面实施例提出了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的自然语言处理模型的训练方法。
本申请第四方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行如上所述的自然语言处理模型的训练方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请实施例的元模型执行多轮迭代训练过程的示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是用来实现本申请实施例的自然语言处理模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的自然语言处理模型的训练方法和装置。
图1是根据本申请第一实施例的示意图。其中,需要说明的是,本申请实施例的执行主体为自然语言处理模型的训练装置,自然语言处理模型的训练装置具体可以为硬件设备,或者硬件设备中的软件等。
本申请实施例的自然语言处理模型的训练方法可应用于自然语言处理任务,提高对多语种、多领域的处理能力,使得自然语言处理任务执行的效果得到提升,得到更加准确的处理结果。
如图1所示,自然语言处理模型的训练方法具体实现过程如下:
步骤101,获取自然语言处理的元模型集合。
在本申请实施例中,自然语言处理模型的训练装置可预先建立多个元模型,并将多个元模型组成元模型集合。其中,元模型可为实现自然语言处理的模型。比如,元模型可实现语义理解、翻译、问答等。
步骤102,根据元模型集合,生成衍生模型,并将衍生模型作为元模型添加至元模型集合中。
为了扩大元模型集合中元模型的数量,在本申请实施例中,可对元模型集合内的元模型,更新模型参数的初始值,以生成衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中。
也就是说,可对元模型集合内的元模型的模型参数进行初始化,并利用不同增值方式,生成该元模型对应的衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中。
作为一种示例,从元模型集合中,选取两个元模型;交换两个元模型中部分模型参数的初始值,以得到至少两个衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中。
也就是说,可模拟自然界中两性繁殖的方式,从元模型集合中随机选取两个元模型,接着,将两个元模型中的部分参数的初始值进行交换,可获取两个元模型对应的衍生模型,如此进行多次,可生成更多的衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中,由此,扩大了元模型集合中元模型的数量。
作为另一种示例,针对每一个元模型,将模型参数的初始值多次叠加噪声,以根据每一次叠加噪声得到的模型参数,生成对应的一个衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中。
也就是说,对于每一个元模型中的模型参数的初始值的每一次叠加噪声,可预先设定该元模型中每个参数的对应的噪声方差,根据每个参数的对应的噪声方差可确定该元模型中每个参数的对应的随机高斯噪声值,将每个参数对应的随机高斯噪声值与对应的初始值进行叠加,可得到叠加噪声的模型参数,叠加噪声的模型参数对应的模型作为衍生模型。
举例而言,针对每一个元模型,可采样k-1个形状与该元模型完全相同的高斯噪音,并将该k-1个高斯噪音分别叠加给该元模型参数的初始值,每一次将高斯噪音叠加给该元模型参数的初始值时,可获取该元模型中每个参数对应的噪声方差,并根据每个参数对应的噪声方差确定每个参数的对应的随机高斯噪声值,将每个参数对应的随机高斯噪声值与对应的初始值进行叠加,可得到叠加噪声的模型参数,并将叠加噪声的模型参数对应的模型作为衍生模型。由此,可得到多个衍生模型,并将生成的多个衍生模型作为元模型添加至元模型集合中,可扩大元模型集合中元模型的数量。
步骤103,对元模型集合进行元训练,以确定元模型集合中经过训练的每一元模型的性能参数。
可以理解,由于深度学习相比于其他机器学习方法在大数据集上的表现更好,因此,在本申请实施例中,可通过深度学习的方式对元模型集合进行训练,以确定元模型集合中经过训练的每一元模型的性能参数。
可选地,从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本;对元模型集合中的每一个元模型执行多轮迭代训练过程。根据每一元模型在执行各轮迭代训练过程中的反馈信息,生成每一元模型的性能参数。详见后续实施例的描述。
步骤104,根据性能参数,对元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行自然语言处理任务的适配模型。
在本申请实施例中,根据每一元模型的性能参数,对元模型集合中的元模型进行打分比对,以对元模型集合中的元模型进行筛选,比如,可将打分最高的N个模型作为筛选保留的元模型。接着,将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行自然语言处理任务的适配模型。具体详见后续实施例的描述。
本申请实施例的自然语言处理模型的训练方法,通过获取自然语言处理的元模型集合;根据元模型集合,生成衍生模型,并将衍生模型作为元模型添加至元模型集合中;对元模型集合进行元训练,以确定元模型集合中经过训练的每一元模型的性能参数;根据性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型。该方法通过将多个衍生模型添加到元模型集合中,使元模型集合数量扩大,并且根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,从而使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高了训练效率。同时,由于该方案采用了对元模型进行丰富后再筛选的方式,使得筛选保留的元模型性能得到提升,从而在对筛选保留的元模型进行所需领域或语种的适配训练后执行对应领域或语种的自然语言处理任务时,不会受限于自然语言处理任务的领域或语种。无论适配训练涉及何种领域或语种,在后续对应领域或语种的自然语言处理任务上均得到较为准确的处理结果。
为了使元模型集合中的模型适应多种任务,并筛选出性能较佳的元模型,在本申请实施例中,如图2所示,图2是根据本申请第二实施例的示意图,可采用多种任务的目标训练样本对元模型集合进行元训练,并确定元模型集合中经过训练的每一元模型的性能参数,生成每一元模型的性能参数,根据该性能参数对元模型进行筛选,筛选出性能较佳的元模型用以后续的适配训练,图1所述实施例的步骤103还可包括如下步骤:
步骤201,从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本。
在本申请实施例中,可预先创建多个任务,根据多个任务对应的创建多个训练样本,并从多个任务的训练样本中随机选择多个训练样本作为各轮迭代训练过程的目标训练样本。其中,需要说明的是,多个任务可以包括不同语种的自然语言处理任务,如不同语言的文本分类,对话生成,摘要生成,也可以包括不同领域的任务,如教育、交通、天气、酒店、旅游等不同专业领域的对话系统,还可以包括不同专业领域的翻译模型等等。
步骤202,对元模型集合中的每一个元模型执行多轮迭代训练过程。
可选地,获取元模型对应的代理,其中,代理包括推理器和适配器;采用代理,根据各轮的目标训练样本,对元模型执行多轮迭代训练过程,其中,每一轮迭代训练过程包括:推理器根据本轮的目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;适配器获取到本轮的预测文本的反馈信息,其中反馈信息是对所述预测文本进行评价的文本,或者为预先标注的标注文本与所述预测文本之间的差异;根据适配器获取到的输入文本、预测文本和反馈信息,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
也就是说,针对元模型集合中的每一个元模型,可预先设置对应的代理,比如,每一个元模型可设置一个或多个代理。其中,代理可包括但不限于推理器和适配器,推理器具有推理能力,适配器具有适配能力,推理器根据本轮的目标样本指示的输入文本和本轮采用的元模型,推导本轮的预测文本;接着,适配器可获取推理器推导的本轮的预测文本,进行问答或者翻译比对等所得到的反馈信息,并根据反馈信息、本轮的输入文本和本轮的预测文本,适配器进行更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型,不断迭代,直至代理的生命周期结束。其中,需要说明的是,代理的生命周期可预先进行设定。适配器得到的反馈信息,在有监督学习情况下,可以是预先标注的标注文本与所述预测文本之间的差异;在半监督学习情况下,可以是针对预测文本的反馈。举例来说,针对文本分类问题,反馈信息可以是标注的真实类别信息与预测文本对应类别之间的差异;针对翻译问题,反馈信息可以是针对预测文本的反馈分值,该反馈分值指示当前翻译是好还是坏;针对对话问题,反馈信息可以是预测文本的对话质量的用户评价等等。
举例而言,如图3所示,在半监督学习情况下,代理包括推理器和适配器,其中,推理器具有推理能力G,在某一轮迭代训练过程中,本轮采用的元模型Mi,t-1作为参数,根据本轮的目标样本指示的输入文本st,推导本轮输出的预测文本at;适配器用L表示,以θ作为参数,根据反馈信息rt-1、本轮的输入文本st-1和本轮输出的预测文本at-1,更新本轮采用的元模型Mi,t-1的模型参数,将更新后的元模型作为元模型Mi,t,以供下一轮迭代训练过程使用。如此不断迭代,直至代理的生命周期结束。其中,需要说明的是,元模型的初始状态可表示为Mi,0=M。在有监督学习情况下,适配器用L表示,以θ作为参数,根据本轮的输入文本st-1,以及指示与标注之间差异的反馈信息rt-1,更新本轮采用的元模型Mi,t-1的模型参数。
步骤203,根据每一元模型在执行各轮迭代训练过程中的反馈信息,生成每一元模型的性能参数。
在本申请实施例中,在每一个元模型对应的代理的生命周期内,可将该元模型在执行各轮迭代训练过程中的反馈信息相加,将相加结果作为该元模型的性能参数。比如,元模型对应的代理为一个的情况下,在元模型对应的代理的生命周期内,该元模型在执行各轮迭代训练过程中的反馈信息分别为r0、r1……rt-1,Ri=r0+r1+……+rt-1,将Ri作为该元模型的性能参数。又比如,元模型对应的代理为多个的情况下,可将元模型对应的代理的生命周期内,将该元模型获取的性能参数取平均,将平均值作为该元模型的性能参数。其中,需要说明的是,元模型的性能参数值越高,表示该元模型的性能越好。另外,如果元模型集合中元模型的性能参数的最高值不满足要求,可重复步骤102-103,直至元模型的性能参数的最高值满足要求。
综上,通过从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本,并对元模型集合中的每一个元模型执行多轮迭代训练过程,根据每一元模型在执行各轮迭代训练过程中的反馈信息,生成每一元模型的性能参数。由此,可使元模型集合中的元模型适应多种任务,并根据元模型集合中经过训练的每一元模型的性能参数对元模型进行筛选,以筛选出性能较佳的元模型进行后续自然语言处理任务的适配训练。
为了得到可执行特定的自然语言处理任务的适配模型并使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高训练效率,以及采用该训练得到的模型执行自然语言处理任务时,使得自然语言处理任务执行的效果得到提升,处理结果更加准确,在本申请实施例中,如图4所示,图4是根据本申请第三实施例的示意图,在获取到元模型集合中经过训练的每一元模型的性能参数之后,可根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,在图1所述实施例的步骤104中还可包括以下步骤:
步骤401,获取自然语言处理任务的多个训练样本。
在本申请实施例中,自然语言处理任务可为用户设定的某一特定任务,比如,自然语言处理任务可为语言的文本分类,也可以为专业领域的任务,如教育专业领域的对话系统,还可以为专业领域的翻译模型等等。
为了提高自然语言处理模型训练的准确度,可获取自然语言处理任务的多个训练样本,其中,自然语言处理任务不同,对应的训练样本也不同,比如,自然语言处理任务为语言的文本分类,对应的训练样本可包括自然语言处理模型在本轮的输入文本的真实类别和预测文本对应的类别;又比如,自然语言处理任务为专业领域的翻译,对应的训练样本可包括自然语言处理模型在本轮的源语言输入文本和目标语言预测文本。
步骤402,对筛选保留的元模型,获取对应的代理,其中,代理包括推理器和适配器。
在本申请实施例中,可根据每一元模型的性能参数,对元模型集合中的元模型进行打分比对,以对元模型集合中的元模型进行筛选,比如,可将打分最高的N个模型作为筛选保留的元模型。对筛选保留的元模型设置对应的代理,比如,对于每一个筛选保留的元模型可设置一个或多个代理。其中,需要说明的是,代理可包括但不限于推理器和适配器。
步骤403,采用代理,对筛选保留的元模型根据自然语言处理任务的训练样本,执行多轮迭代训练过程。
可选地,推理器根据本轮的训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;适配器获取本轮预测文本的反馈信息,以及根据反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
也就是说,针对筛选保留的每一个元模型,推理器根据本轮的训练样本指示的输入文本和本轮采用的元模型,推导本轮执行的预测文本;接着,适配器可获取推理器推导的本轮执行的预测文本的反馈信息,其中,反馈信息是对预测文本进行评价的文本,或者为预先标注的标注文本与预测文本之间的差异,接着,适配器根据反馈信息、本轮的输入文本和本轮的预测文本,适配器进行更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型,不断迭代,直至代理的生命周期结束。详细可参照图2所述实施例的步骤202。本申请不再赘述。
在本申请实施例中,根据每一元模型在执行各轮迭代训练过程中的反馈信息,生成每一元模型的性能参数。比如,在每一个元模型对应的代理的生命周期内,可将该元模型在执行各轮迭代训练过程中的反馈信息相加,将相加结果作为该元模型的性能参数,将性能参数值较高的元模型作为用以执行自然语言处理任务的适配模型。
综上,通过元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,从而可得到用以执行自然语言处理任务的适配模型,并使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高训练效率,同时将采用该方法训练得到的元模型应用于自然语言处理任务,能够提高对多语种、多领域的处理能力,使得自然语言处理任务执行的效果得到提升,得到更加准确的处理结果。
本申请实施例的自然语言处理模型的训练方法,通过获取自然语言处理的元模型集合;根据元模型集合,生成衍生模型,并将多个衍生模型作为元模型添加至元模型集合中;对元模型集合进行元训练,以确定元模型集合中经过训练的每一元模型的性能参数;根据性能参数,对元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行自然语言处理任务的适配模型。该方法通过将多个衍生模型添加到元模型集合中,使元模型集合数量扩大,并且根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,从而使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高了训练效率,同时将采用该方法训练得到的元模型应用于自然语言处理任务,能够提高对多语种、多领域的处理能力,使得自然语言处理任务执行的效果得到提升,得到更加准确的处理结果。
为了实现上述实施例,本申请实施例还提出一种自然语言处理模型的训练装置。
图5是根据本申请第四实施例的示意图。如图5所示,该自然语言处理模型的训练装置500包括:获取模块510、生成模块520、训练模块530、筛选模块540。
其中,获取模块510,用于获取自然语言处理的元模型集合;生成模块520,用于根据元模型集合,生成衍生模型,并将多个衍生模型作为元模型添加至元模型集合中;训练模块530,用于对元模型集合进行元训练,以确定元模型集合中经过训练的每一元模型的性能参数;筛选模块540,用于根据性能参数,对元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行自然语言处理任务的适配模型。
作为本申请实施例的一种可能实现方式,生成模块520包括:更新单元。
其中,更新单元用于对元模型集合内的元模型,更新模型参数的初始值,以生成衍生模型。
作为本申请实施例的一种可能实现方式,更新单元具体用于从元模型集合中,选取两个元模型;交换两个元模型中部分模型参数的初始值,以得到至少两个衍生模型。
作为本申请实施例的一种可能实现方式,更新单元还用于针对每一个元模型,将模型参数的初始值多次叠加噪声,以根据每一次叠加噪声得到的模型参数,生成对应的一个衍生模型。
作为本申请实施例的一种可能实现方式,更新单元具体用于针对每一次叠加噪声,根据本次叠加噪声的元模型中各模型参数的设定噪声方差,确定各所述模型参数的随机高斯噪声值;将每一模型参数的随机高斯噪声值与对应的初始值叠加,以得到叠加噪声的各模型参数;根据叠加噪声的各模型参数,生成对应的衍生模型。
作为本申请实施例的一种可能实现方式,训练模块530包括:选定单元、训练单元。
其中,选定单元,用于从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本;训练单元,用于对元模型集合中的一个元模型执行多轮迭代训练过程。
作为本申请实施例的一种可能实现方式,训练单元具体用于获取元模型对应的代理,其中,代理包括推理器和适配器;采用代理,根据各轮的目标训练样本,对元模型执行多轮迭代训练过程,其中,每一轮迭代训练过程包括:推理器根据本轮的目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;适配器获取本轮预测文本的反馈信息,以及根据反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
作为本申请实施例的一种可能实现方式,训练模块530具体用于根据每一元模型在执行各轮所述迭代训练过程中的所述反馈信息,生成每一元模型的性能参数。
作为本申请实施例的一种可能实现方式,筛选模块540具体用于获取自然语言处理任务的多个训练样本;对筛选保留的元模型,获取对应的代理,其中,代理包括推理器和适配器;采用代理,对筛选保留的元模型根据自然语言处理任务的训练样本,执行多轮迭代训练过程;其中,每一轮迭代训练过程包括:推理器根据本轮的目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;适配器获取本轮预测文本的反馈信息,以及根据反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
本申请实施例的自然语言处理模型的训练装置,通过获取自然语言处理的元模型集合;根据元模型集合,生成衍生模型,并将多个衍生模型作为元模型添加至元模型集合中;对元模型集合进行元训练,以确定元模型集合中经过训练的每一元模型的性能参数;根据性能参数,对元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行自然语言处理任务的适配模型。该装置可实现通过将多个衍生模型添加到元模型集合中,使元模型集合数量扩大,并且根据元模型的性能参数对元模型进行筛选,筛选出性能较佳的元模型进行自然语言处理任务的适配训练,从而使适配训练结果不需要反向传递至元训练过程,也能达到较优的训练结果,有效地提高了训练效率。同时将采用该装置训练得到的元模型应用于自然语言处理任务,能够提高对多语种、多领域的处理能力,使得自然语言处理任务执行的效果得到提升,得到更加准确的处理结果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的自然语言处理模型的训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的自然语言处理模型的训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的自然语言处理模型的训练方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的自然语言处理模型的训练方法对应的程序指令/模块(例如,附图5所示的获取模块510、生成模块520、训练模块530和筛选模块540)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的自然语言处理模型的训练方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据自然语言处理模型的训练的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至自然语言处理模型的训练的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
自然语言处理模型的训练方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与自然语言处理模型的训练的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种自然语言处理模型的训练方法,所述方法包括:
获取自然语言处理的元模型集合;
根据所述元模型集合,生成衍生模型,并将所述衍生模型作为元模型添加至所述元模型集合中;
对所述元模型集合进行元训练,以确定所述元模型集合中经过训练的每一元模型的性能参数;
根据所述性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型;
其中,所述对所述元模型集合进行元训练,包括:从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本,对所述元模型集合中的每一个元模型执行多轮迭代训练过程。
2.根据权利要求1所述的训练方法,其中,所述根据所述元模型集合,生成衍生模型,包括:
对所述元模型集合内的元模型,更新模型参数的初始值,以生成所述衍生模型。
3.根据权利要求2所述的训练方法,其中,所述对所述元模型集合内的元模型,更新所述模型参数的初始值,以生成所述衍生模型,包括:
从所述元模型集合中,选取两个元模型;
交换所述两个元模型中部分所述模型参数的初始值,以得到至少两个衍生模型。
4.根据权利要求2所述的训练方法,其中,所述对所述元模型集合内的元模型,更新所述模型参数的初始值,以生成所述衍生模型,包括:
针对每一个所述元模型,将所述模型参数的初始值多次叠加噪声,以根据每一次叠加噪声得到的模型参数,生成对应的一个所述衍生模型。
5.根据权利要求4所述的训练方法,其中,所述针对每一个所述元模型,将所述模型参数的初始值多次叠加噪声,包括:
针对每一次叠加噪声,根据本次叠加噪声的元模型中各模型参数的设定噪声方差,确定各所述模型参数的随机高斯噪声值;
将每一所述模型参数的随机高斯噪声值与对应的所述初始值叠加,以得到叠加噪声的各所述模型参数;
根据叠加噪声的各所述模型参数,生成对应的所述衍生模型。
6.根据权利要求1所述的训练方法,其中,所述对所述元模型集合中的每一个元模型执行多轮迭代训练过程,包括:
获取所述元模型对应的代理,其中,所述代理包括推理器和适配器;
采用所述代理,根据各轮的所述目标训练样本,对所述元模型执行多轮迭代训练过程,其中,每一轮迭代训练过程包括:所述推理器根据本轮的所述目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;所述适配器获取本轮预测文本的反馈信息,以及根据所述反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
7.根据权利要求6所述的训练方法,其中,所述确定所述元模型集合中经过训练的每一元模型的性能参数,包括:
根据每一元模型在执行各轮所述迭代训练过程中的所述反馈信息,生成每一元模型的性能参数。
8.根据权利要求1-5任一项所述的训练方法,其中,所述将筛选保留的元模型进行自然语言处理任务的适配训练,包括:
获取自然语言处理任务的多个训练样本;
对所述筛选保留的元模型,获取对应的代理,其中,所述代理包括推理器和适配器;
采用所述代理,对所述筛选保留的元模型根据目标任务的训练样本,执行多轮迭代训练过程;
其中,每一轮迭代训练过程包括:所述推理器根据本轮的目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;所述适配器获取本轮预测文本的反馈信息,以及根据所述反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
9.一种自然语言处理模型的训练装置,所述装置包括:
获取模块,用于获取自然语言处理的元模型集合;
生成模块,用于根据所述元模型集合,生成衍生模型,并将所述衍生模型作为元模型添加至所述元模型集合中;
训练模块,用于对所述元模型集合进行元训练,以确定所述元模型集合中经过训练的每一元模型的性能参数;
筛选模块,用于根据所述性能参数,对所述元模型集合中的元模型进行筛选,以将筛选保留的元模型进行自然语言处理任务的适配训练,得到用以执行所述自然语言处理任务的适配模型;
其中,所述训练模块包括:
选定单元,用于从多个任务的训练样本中随机选定各轮迭代训练过程的目标训练样本;
训练单元,用于对所述元模型集合中的每一个元模型执行多轮迭代训练过程。
10.根据权利要求9所述的训练装置,其中,所述生成模块包括:
更新单元,用于对所述元模型集合内的元模型,更新模型参数的初始值,以生成所述衍生模型。
11.根据权利要求10所述的训练装置,其中,所述更新单元具体用于:
从所述元模型集合中,选取两个元模型;
交换所述两个元模型中部分所述模型参数的初始值,以得到至少两个衍生模型。
12.根据权利要求10所述的训练装置,其中,所述更新单元还用于:
针对每一个所述元模型,将所述模型参数的初始值多次叠加噪声,以根据每一次叠加噪声得到的模型参数,生成对应的一个所述衍生模型。
13.根据权利要求12所述的训练装置,其中,所述更新单元具体用于:
针对每一次叠加噪声,根据本次叠加噪声的元模型中各模型参数的设定噪声方差,确定各所述模型参数的随机高斯噪声值;
将每一所述模型参数的随机高斯噪声值与对应的所述初始值叠加,以得到叠加噪声的各所述模型参数;
根据叠加噪声的各所述模型参数,生成对应的所述衍生模型。
14.根据权利要求9所述的训练装置,其中,所述训练单元具体用于:
获取所述元模型对应的代理,其中,所述代理包括推理器和适配器;
采用所述代理,根据各轮的所述目标训练样本,对所述元模型执行多轮迭代训练过程,其中,每一轮迭代训练过程包括:所述推理器根据本轮的所述目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;所述适配器获取本轮预测文本的反馈信息,以及根据所述反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
15.根据权利要求14所述的训练装置,所述训练模块具体用于:
根据每一元模型在执行各轮所述迭代训练过程中的所述反馈信息,生成每一元模型的性能参数。
16.根据权利要求9-13任一项所述的训练装置,其中,所述筛选模块具体用于:
获取自然语言处理任务的多个训练样本;
对所述筛选保留的元模型,获取对应的代理,其中,所述代理包括推理器和适配器;
采用所述代理,对所述筛选保留的元模型根据目标任务的训练样本,执行多轮迭代训练过程;
其中,每一轮迭代训练过程包括:所述推理器根据本轮的目标训练样本指示的输入文本和本轮采用的元模型,生成本轮的预测文本;所述适配器获取本轮预测文本的反馈信息,以及根据所述反馈信息、本轮的预测文本和本轮的输入文本,更新本轮采用的元模型的模型参数,以得到下一轮采用的元模型。
17.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的自然语言处理模型的训练方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1-8中任一项所述的自然语言处理模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011106273.6A CN111931520B (zh) | 2020-10-16 | 2020-10-16 | 自然语言处理模型的训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011106273.6A CN111931520B (zh) | 2020-10-16 | 2020-10-16 | 自然语言处理模型的训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931520A CN111931520A (zh) | 2020-11-13 |
CN111931520B true CN111931520B (zh) | 2021-02-12 |
Family
ID=73334521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011106273.6A Active CN111931520B (zh) | 2020-10-16 | 2020-10-16 | 自然语言处理模型的训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931520B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114548426B (zh) * | 2022-02-17 | 2023-11-24 | 北京百度网讯科技有限公司 | 异步联邦学习的方法、业务服务的预测方法、装置及系统 |
WO2023168601A1 (zh) * | 2022-03-08 | 2023-09-14 | 京东方科技集团股份有限公司 | 自然语言处理模型的训练方法、装置、存储介质 |
CN116090550B (zh) * | 2022-12-27 | 2024-03-22 | 百度在线网络技术(北京)有限公司 | 联邦学习方法、装置、服务器、电子设备及存储介质 |
CN116258579B (zh) * | 2023-04-28 | 2023-08-04 | 成都新希望金融信息有限公司 | 用户信用评分模型的训练方法及用户信用评分方法 |
CN118377481B (zh) * | 2024-06-24 | 2024-09-03 | 浩神科技(北京)有限公司 | 一种基于元代理技术的语言模型自动化开发方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363714A (zh) * | 2017-12-21 | 2018-08-03 | 北京至信普林科技有限公司 | 一种方便数据分析人员使用的集成机器学习的方法及系统 |
CN108694443A (zh) * | 2017-04-05 | 2018-10-23 | 富士通株式会社 | 基于神经网络的语言模型训练方法和装置 |
US10311149B1 (en) * | 2018-08-08 | 2019-06-04 | Gyrfalcon Technology Inc. | Natural language translation device |
CN110188358A (zh) * | 2019-05-31 | 2019-08-30 | 北京神州泰岳软件股份有限公司 | 自然语言处理模型的训练方法及装置 |
-
2020
- 2020-10-16 CN CN202011106273.6A patent/CN111931520B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694443A (zh) * | 2017-04-05 | 2018-10-23 | 富士通株式会社 | 基于神经网络的语言模型训练方法和装置 |
CN108363714A (zh) * | 2017-12-21 | 2018-08-03 | 北京至信普林科技有限公司 | 一种方便数据分析人员使用的集成机器学习的方法及系统 |
US10311149B1 (en) * | 2018-08-08 | 2019-06-04 | Gyrfalcon Technology Inc. | Natural language translation device |
CN110188358A (zh) * | 2019-05-31 | 2019-08-30 | 北京神州泰岳软件股份有限公司 | 自然语言处理模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111931520A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931520B (zh) | 自然语言处理模型的训练方法和装置 | |
CN111639710A (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
CN111737994B (zh) | 基于语言模型获取词向量的方法、装置、设备及存储介质 | |
CN110795569B (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN111950291B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111737996B (zh) | 基于语言模型获取词向量的方法、装置、设备及存储介质 | |
CN111708922A (zh) | 用于表示异构图节点的模型生成方法及装置 | |
CN111737995A (zh) | 基于多种词向量训练语言模型的方法、装置、设备及介质 | |
CN112001180A (zh) | 多模态预训练模型获取方法、装置、电子设备及存储介质 | |
CN111967256A (zh) | 事件关系的生成方法、装置、电子设备和存储介质 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN110717340B (zh) | 推荐方法、装置、电子设备及存储介质 | |
CN111695698B (zh) | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 | |
CN110543558B (zh) | 问题匹配方法、装置、设备和介质 | |
CN111966782B (zh) | 多轮对话的检索方法、装置、存储介质及电子设备 | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
CN111324715B (zh) | 问答机器人的生成方法和装置 | |
CN111967569A (zh) | 神经网络结构的生成方法、装置、存储介质及电子设备 | |
CN111967591B (zh) | 神经网络自动剪枝方法、装置及电子设备 | |
CN112560499B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN111950293A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111639753A (zh) | 用于训练超网络的方法、装置、设备以及存储介质 | |
CN114492788A (zh) | 训练深度学习模型的方法和装置、电子设备及存储介质 | |
CN111753761A (zh) | 模型生成方法、装置、电子设备及存储介质 | |
CN111177339A (zh) | 对话生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |