CN112966712B - 语言模型训练方法、装置、电子设备和计算机可读介质 - Google Patents

语言模型训练方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN112966712B
CN112966712B CN202110137597.4A CN202110137597A CN112966712B CN 112966712 B CN112966712 B CN 112966712B CN 202110137597 A CN202110137597 A CN 202110137597A CN 112966712 B CN112966712 B CN 112966712B
Authority
CN
China
Prior art keywords
text
training
model
target
sample set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110137597.4A
Other languages
English (en)
Other versions
CN112966712A (zh
Inventor
郭同
胡懋地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202110137597.4A priority Critical patent/CN112966712B/zh
Publication of CN112966712A publication Critical patent/CN112966712A/zh
Application granted granted Critical
Publication of CN112966712B publication Critical patent/CN112966712B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了语言模型训练方法、装置、电子设备和计算机可读介质。该方法的实施例包括:语言模型训练方法,其特征在于,方法包括:基于自然语言处理任务选取第一文本样本集,并利用第一文本样本集对第一预训练模型进行训练,得到初始语言模型;利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集;利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型;利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。该实施方式能够得到一种应用于自然语言处理任务的模型,该模型能够提高处理结果的准确性。

Description

语言模型训练方法、装置、电子设备和计算机可读介质
技术领域
本申请实施例涉及计算机技术领域,具体涉及语言模型训练方法、装置、电子设备和计算机可读介质。
背景技术
随着计算机技术的发展,自然语言处理(Natural Language Processing,NLP)应用在了多个领域。其中,语言模型是自然语言处理领域的重要技术,可应用于文本分类、实体识别、阅读理解等多种文本处理场景。
现有技术中,通常使用公开的数据集训练得到一个预训练模型,而后,采用针对当前的自然语言处理任务所定制的少量文本样本,对该预训练模型进行进一步训练,得到所需的语言模型。然而,公开的数据集对于当前的自然语言处理任务的针对性较低,因而预训练模型的处理效果较差,由此导致基于该预训练模型所训练出的语言模型的文本处理结果不够准确。
发明内容
本申请实施例提出了语言模型训练方法、装置、电子设备和计算机可读介质,以解决现有技术中语言模型的处理结果准确性较低的技术问题。
第一方面,本申请实施例提供了一种语言模型训练方法,该方法包括:基于自然语言处理任务选取第一文本样本集,并利用所述第一文本样本集对第一预训练模型进行训练,得到初始语言模型;利用所述初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和所述测试文本,生成第二文本样本集;利用所述第二文本样本集对所述第一预训练模型进行训练,得到第二预训练模型;利用所述第一文本样本集对所述第二预训练模型进行训练,得到目标语言模型。
第二方面,本申请实施例提供了一种文本类别检测方法,包括:获取目标文本;将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本的类别信息。
第三方面,本申请实施例提供了一种实体识别方法,包括:获取目标文本;将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本中的实体。
第四方面,本申请实施例提供了一种信息提取方法,包括:获取目标文本;将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本中的关键词;将所述关键词进行汇总,得到目标信息。
第五方面,本申请实施例提供了一种语言模型训练装置,该装置包括:第一训练单元,用于基于自然语言处理任务选取第一文本样本集,并利用所述第一文本样本集对第一预训练模型进行训练,得到初始语言模型;测试单元,用于利用所述初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和所述测试文本,生成第二文本样本集;第二训练单元,用于利用所述第二文本样本集对所述第一预训练模型进行训练,得到第二预训练模型;第三训练单元,用于利用所述第一文本样本集对所述第二预训练模型进行训练,得到目标语言模型。
第六方面,本申请实施例提供了一种文本类别检测装置,包括:获取单元,用于获取目标文本;类别检测单元,用于将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本的类别信息。
第七方面,本申请实施例提供了一种实体识别装置,包括:获取单元,用于获取目标文本;实体识别单元,用于将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本中的实体。
第八方面,本申请实施例提供了一种信息提取装置,包括:获取单元,用于获取目标文本;关键词提取单元,用于将所述目标文本输入至采用上述语言模型训练方法预先训练得到的目标语言模型,得到所述目标文本中的关键词;
第九方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述语言模型训练方法。
第十方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述语言模型训练方法。
本申请实施例提供的语言模型训练方法、装置、电子设备和计算机可读介质,首先利用基于自然语言处理任务选取的第一文本样本集对第一预训练模型进行训练,得到初始语言模型;而后利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集;之后利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型;最后利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。由于测试文本集中的测试文本极为丰富,因而基于测试文本和测试结果构建的第二文本样本集中的样本极为丰富。同时,由于测试结果由初始语言模型对测试文本测试后得到,因而第二文本样本集中的样本均为针对当前的自然语言处理任务的样本。由此,使用针对性较强且样本丰富的第二文本样本集训练得到第二预训练模型,能够提高第二预训练模型的处理效果,进而使目标语言模型能够输出更为准确的文本处理结果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是根据本申请的语言模型训练方法的一个实施例的流程图;
图2是根据本申请的文本类别检测方法的一个实施例的流程图;
图3是根据本申请的实体识别方法的一个实施例的流程图;
图4是根据本申请的信息提取方法的一个实施例的流程图;
图5是根据本申请的语言模型训练装置的一个实施例的结构示意图;
图6是根据本申请的文本类别检测装置的一个实施例的结构示意图;
图7是根据本申请的实体识别装置的一个实施例的结构示意图;
图8是根据本申请的信息提取装置的一个实施例的结构示意图;
图9是用于实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,其示出了根据本申请的语言模型训练方法的一个实施例的流程100。该语言模型训练方法,包括以下步骤:
步骤101,基于自然语言处理任务选取第一文本样本集,并利用第一文本样本集对第一预训练模型进行训练,得到初始语言模型。
在本实施例中,语言模型训练方法的执行主体(如服务器等电子设备)可以基于当前的自然语言处理任务选取第一文本样本集。其中,自然语言处理任务可以包括但不限于以下至少一项:文本分类任务(如根据产品信息对产品类目)、实体识别任务(如根据产品信息输出场景标签)、阅读理解任务(如从文本中抽取关键词)。
作为示例,若当前的自然语言处理任务为文本分类任务,则可以将带有类别标注的文本作为文本样本,将各文本样本进行汇总,得到第一文本样本集。其中,类别标注可用于表征文本样本的类别。
作为又一示例,若当前的自然语言处理任务为实体识别任务,则可以将带有实体类别标注的文本作为文本样本,将各文本样本进行汇总,得到第一文本样本集。其中,实体类别标注可用于表征文本样本中的实体的类别。
作为再一示例,若当前的自然语言处理任务为阅读理解任务,如关键词提取任务,则可以将带有关键词标注的文本作为文本样本,将各文本样本进行汇总,得到第一文本样本集。其中,关键词标注可用于指示某个词是否为关键词。
在本实施例中,上述执行主体可以利用第一文本样本集对第一预训练模型进行训练,得到初始语言模型。此处,第一文本样本集中可以包含文本样本和标注。上述执行主体可以采用机器学习方法(如有监督学习方法)对第一预训练模型进行训练,得到初始语言模型。
其中,第一预训练模型可以是对基础模型预训练后所得到的模型。基础模型可以是各种具有自然语言处理功能的模型,如BERT(Bidirectional Encoder Representationsfrom Transformer,基于transformer结构的双向编码器表征)模型、端对端模型等。
以BERT模型为例,上述执行主体可以采用公开的数据集对BERT模型进行预训练,得到第一预训练模型。而后,可采用基于自然语言处理任务选取的第一文本样本集对第一预训练模型进行再训练,以调整第一预训练模型的参数,从而得到初始语言模型。
其中,BERT模型是一种应用于自然语言处理任务的开源的语言模型。BERT模型包含多层转换器(transformer)结构。其中,转换器结构是一种基于注意力机制(Attention)的网络结构。该网络结构能够计算一个文本中的每个词与该文本中所有词的相互关系,并基于词与词之间的相互关系计算各词的重要程度(权重),从而获得每个词新的表达(例如新的向量)。上述新的表达不但涉及了该词本身的特征,还涉及了其他词与这个词的关系,因此和传统的词向量相比更具有全局性。由于BERT模型使用多层转换器结构(具体为转换器结构中的编码器(encoder)),因而,BERT模型能够学习到文本中词之间的上下文关系。此外,转换器的编码器是采用一次性读取的方式进行文本的读取,支持了BERT模型对文本的双向学习,由此,相对于仅支持对文本单向学习的语言模型,BERT模型可更准确地学习到文本中的各词的上下文关系,对语境的理解比单向的语言模型更深刻。由此,BERT模型相较于处理自然语言处理任务的其他模型,具有更好的任务处理效果。
在本实施例的一些可选的实现方式中,上述执行主体可以基于自然语言处理任务选取第一损失函数,并利用第一文本样本集和第一损失函数,对第一预训练模型进行训练,得到初始语言模型。其中,损失函数是一个非负实值函数,可以用于表征检测结果与真实结果的差异。一般情况下,损失值(损失函数的值)越小,模型的鲁棒性就越好。在训练过程中,损失值可用于指导和更新模型的参数。每向模型中输入一次样本,可得到一次损失值,从而可基于损失值对模型参数进行一次更新,直至训练完成。
此处,针对不同的自然语言处理任务,第一损失函数可以不同,第一损失函数可以根据实际需求来设置。作为示例,若自然语言处理任务为文本分类任务,则可以选取交叉熵损失函数作为第一损失函数;若自然语言处理任务为实体识别任务,则可选取条件随机场(Conditional Random Field,CRF)损失函数作为第一损失函数;若自然语言处理任务为阅读理解任务,则可将用于确定起止区间损失(Start-End Span Loss)的损失函数作为第一损失函数。
步骤102,利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集。
在本实施例中,上述执行主体中可以预先设置有测试文本集。由于测试文本集用于进行模型测试而非训练,因而测试文本集中的测试文本无需标注,由此,测试文本集中的测试文本极易获取且内容极为丰富。作为示例,若当前的自然语言处理任务为文本类别检测(如根据产品信息确定产品类目),则可以从点评平台、点餐平台、外卖平台等处获取文本以组成测试文本集。
在本实施例中,上述执行主体可以利用初始语言模型对测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集。具体地,可以逐一地从测试文本集中选取测试文本,输入至初始语言模型中,从而得到每一个测试文本对应的测试结果。对于每一个测试文本,可将该测试文本作为文本样本,将该测试文本对应的测试结果作为文本样本的标注,得到已标注的文本样本。之后,可将已标注的文本样本进行汇总,得到第二文本样本集。
可以理解的是,公开的数据集适用范围广,但对于单个自然语言处理任务的针对性较低,故现有技术中采用公开的数据集训练得到的预训练模型的处理效果较差。本实施例中,由于测试文本集中的测试文本极为丰富且测试结果通过初始语言模型得到,因而基于测试文本和测试结果构建的第二文本样本集中的样本极为丰富,且其中的样本均为针对当前的自然语言处理任务的样本。由此使用第二文本样本集对第一预训练模型进行训练,能够提高训练得到的第二预训练模型的性能。
步骤103,利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型。
在本实施例中,上述执行主体可以利用第二文本样本集,采用机器学习方法(如有监督学习方法)对第一预训练模型进行训练,得到第二预训练模型。在训练过程中,可以逐一地将第二文本样本集中的文本样本(即测试文本集中的测试文本)输入至第一预训练模型,得到第一预训练模型的输出结果。而后,可以基于该输出结果与所输入的文本样本对应的标注(即所输入的测试文本对应的测试结果),确定损失值。之后,可以利用该损失值,更新第一预训练模型的参数。由此,每输入一次文本样本,可以基于该文本样本对应的损失值,对第一预训练模型的参数进行一次更新,直至训练完成,得到第二预训练模型。
在本实施例的一些可选的实现方式中,第一预训练模型可基于第二损失函数训练得到。例如,在对BERT模型进行预训练的过程中,可使用MaskLM(mask language model,掩码语言模型)损失函数作为第二损失函数。上述执行主体可以基于第二文本样本集、第一损失函数和第二损失函数,对第一预训练模型进行训练,得到第二预训练模型。
在一些示例中,可按照如下步骤执行:首先,在第二文本样本集的各文本样本的首字符前添加预设标识符,如[CLS]。而后,将添加预设标识符后的文本样本输入至第一预训练模型,得到第一预训练模型输出的向量序列。之后,基于向量序列、第一损失函数和第二损失函数,确定第一预训练模型的损失值。最后,基于损失值调整第一预训练模型的参数,得到第二预训练模型。
其中,第一预训练模型输出的向量序列中可包括与预设标识符对应的向量以及与文本样本中的各字对应的向量。在计算损失值时,可按照如下步骤执行:
第一步,基于自然语言处理任务,选取向量序列中的目标向量。例如,若当前的自然语言处理任务为文本分类任务,则可选取预设标识符对应的向量作为目标向量。若当前的自然语言处理任务为实体识别任务或阅读理解任务,则可选取文本样本中的各词对应的向量作为目标向量。
第二步,基于目标向量和第一损失函数,确定第一损失值。此处,可将目标向量以及文本样本的标注输入至第一损失函数,得到第一损失函数的函数值,该该数值即为第一损失值。
第三步,基于向量序列和第二损失函数,确定第二损失值。确定第二损失值的方式与训练基础模型得到第一预训练模型时所采用的损失值计算方式相同,此处不再赘述。
第四步,基于第一损失值和第二损失值,确定第一预训练模型的损失值。此处,可将第一损失值与第二损失值之和或者加权求和结果,作为第一预训练模型的损失值。
通过将第一损失函数与第二损失函数相结合,可得到更为准确的损失值。基于该损失值进行第二预训练模型的调参,可得到更优的参数,从而提升第二预训练模型的处理效果。
步骤104,利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。
在本实施例中,上述执行主体可以利用第一文本样本集,采用机器学习方法(如有监督学习方法)对第二预训练模型进行训练,得到目标语言模型。此处,对第二预训练模型进行训练得到目标语言模型的方式,与步骤101中对第一预训练模型进行训练得到初始语言模型的方式基本相同,此处不再赘述。
本申请的上述实施例提供的方法,首先利用基于自然语言处理任务选取的第一文本样本集对第一预训练模型进行训练,得到初始语言模型;而后利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集;之后利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型;最后利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。由于测试文本集中的测试文本极为丰富,因而基于测试文本和测试结果构建的第二文本样本集中的样本极为丰富。同时,由于测试结果由初始语言模型对测试文本测试后得到,因而第二文本样本集中的样本均为针对当前的自然语言处理任务的样本。由此,使用针对性较强且样本丰富的第二文本样本集训练得到第二预训练模型,能够提高第二预训练模型的处理效果,进而使目标语言模型能够输出更为准确的文本处理结果。
进一步参考图2,其示出了文本类别检测方法的一个实施例的流程200。该文本类别检测方法的流程200,包括以下步骤:
步骤201,获取目标文本。
在本实施例中,文本类别检测方法的执行主体(如服务器、终端等电子设备)可以将获取待进行文本类别检测的文本,并将该文本作为目标文本。
步骤202,将目标文本输入至预先训练得到的目标语言模型,得到目标文本的类别信息。
在本实施例中,上述执行主体可以将目标文本输入至预先训练得到的目标语言模型,得到目标文本的类别信息。其中,上述目标语言模型可以输出目标文本属于各类别的概率,最高的概率对应的类别即为目标文本的类别。目标语言模型可以是采用如上述图1对应的实施例所描述的方法而生成的。具体生成过程可以参见图1对应的实施例的相关描述,此处不再赘述。
需要说明的是,本实施例的文本类别检测方法可以用于测试上述实施例所生成的目标语言模型。进而根据测试结果可以不断地优化目标语言模型。该方法也可以是上述实施例所生成的目标语言模型的实际应用方法。采用上述实施例所生成的目标语言模型来进行文本类别检测,有助于提高目标语言模型的性能。同时,利用上述目标语言模型进行文本类别检测,提高了文本类别检测结果的准确性。
进一步参考图3,其示出了实体识别方法的一个实施例的流程300。该实体识别方法的流程300,包括以下步骤:
步骤301,获取目标文本。
在本实施例中,实体识别方法的执行主体(如服务器、终端等电子设备)可以将获取待进行实体识别的文本,并将该文本作为目标文本。
步骤302,将目标文本输入至预先训练得到的目标语言模型,得到目标文本中的实体。
在本实施例中,上述执行主体可以将目标文本输入至预先训练得到的目标语言模型,得到目标文本中的实体。目标语言模型可以是采用如上述图1对应的实施例所描述的方法而生成的。具体生成过程可以参见图1对应的实施例的相关描述,此处不再赘述。
需要说明的是,本实施例的实体识别方法可以用于测试上述实施例所生成的目标语言模型。进而根据测试结果可以不断地优化目标语言模型。该方法也可以是上述实施例所生成的目标语言模型的实际应用方法。采用上述实施例所生成的目标语言模型来进行实体识别,有助于提高目标语言模型的性能。同时,利用上述目标语言模型进行实体识别,提高了实体识别结果的准确性。
进一步参考图4,其示出了信息提取方法的一个实施例的流程400。该信息提取方法的流程400,包括以下步骤:
步骤401,获取目标文本。
在本实施例中,信息提取方法的执行主体(如服务器、终端等电子设备)可以将获取待进行信息提取的文本,并将该文本作为目标文本。
步骤402,将目标文本输入至预先训练得到的目标语言模型,得到目标文本中的关键词。
在本实施例中,上述执行主体可以将目标文本输入至预先训练得到的目标语言模型,得到目标文本中的关键词。目标语言模型可以是采用如上述图1对应的实施例所描述的方法而生成的。具体生成过程可以参见图1对应的实施例的相关描述,此处不再赘述。
步骤403,将关键词进行汇总,得到目标信息。
在本实施例中,上述执行主体可以将关键词进行汇总,得到目标信息。
需要说明的是,本实施例的信息提取方法可以用于测试上述实施例所生成的目标语言模型。进而根据测试结果可以不断地优化目标语言模型。该方法也可以是上述实施例所生成的目标语言模型的实际应用方法。采用上述实施例所生成的目标语言模型来进行信息提取,有助于提高目标语言模型的性能。同时,利用上述目标语言模型进行信息提取,提高了信息提取结果的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种语言模型训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的语言模型训练装置500包括:第一训练单元501,用于基于自然语言处理任务选取第一文本样本集,并利用上述第一文本样本集对第一预训练模型进行训练,得到初始语言模型;测试单元502,用于利用上述初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和上述测试文本,生成第二文本样本集;第二训练单元503,用于利用上述第二文本样本集对上述第一预训练模型进行训练,得到第二预训练模型;第三训练单元504,用于利用上述第一文本样本集对上述第二预训练模型进行训练,得到目标语言模型。
在本实施例的一些可选的实现方式中,上述第一训练单元501,还用于:基于自然语言处理任务选取第一文本样本集和第一损失函数;利用上述第一文本样本集和上述第一损失函数,对第一预训练模型进行训练,得到初始语言模型。
在本实施例的一些可选的实现方式中,上述第一预训练模型基于第二损失函数训练得到;以及,上述第二训练单元503,还用于:利用上述第二文本样本集、上述第一损失函数和上述第二损失函数,对上述第一预训练模型进行训练,得到第二预训练模型。
在本实施例的一些可选的实现方式中,上述第二训练单元503,还用于:在上述第二文本样本集的各文本样本的首字符前添加预设标识符;将添加上述预设标识符后的文本样本输入至上述第一预训练模型,得到上述第一预训练模型输出的向量序列;基于上述向量序列、上述第一损失函数和上述第二损失函数,确定上述第一预训练模型的损失值;基于上述损失值调整上述第一预训练模型的参数,得到第二预训练模型。
在本实施例的一些可选的实现方式中,上述向量序列中包括与上述预设标识符对应的向量和与文本样本中的各字对应的向量;以及,上述第二训练单元503,还用于:基于上述自然语言处理任务,选取上述向量序列中的目标向量;基于上述目标向量和上述第一损失函数,确定第一损失值;基于上述向量序列和上述第二损失函数,确定第二损失值;基于上述第一损失值和上述第二损失值,确定上述第一预训练模型的损失值。
在本实施例的一些可选的实现方式中,上述自然语言处理任务包括以下至少一项:文本分类任务、实体识别任务、阅读理解任务;以及,上述第二训练单元503,还用于:响应于上述自然语言处理任务为文本分类任务,选取上述预设标识符对应的向量作为目标向量;响应于上述自然语言处理任务为实体识别任务或阅读理解任务,选取文本样本中的各词对应的向量作为目标向量。
在本实施例的一些可选的实现方式中,上述自然语言处理任务包括以下至少一项:文本分类任务、实体识别任务、阅读理解任务;以及,上述第一训练单元501,还用于:响应于上述自然语言处理任务为文本分类任务,选取交叉熵损失函数作为第一损失函数;响应于上述自然语言处理任务为实体识别任务,选取条件随机场损失函数作为第一损失函数;响应于上述自然语言处理任务为阅读理解任务,将用于确定起止区间损失的损失函数作为第一损失函数。
在本实施例的一些可选的实现方式中,上述测试单元502,还用于:对于上述测试文本集中的每个测试文本,将该测试文本作为文本样本,将该测试文本对应的测试结果作为标注,得到已标注的文本样本;将上述已标注的文本样本进行汇总,得到第二文本样本集。
本申请的上述实施例提供的装置,首先利用基于自然语言处理任务选取的第一文本样本集对第一预训练模型进行训练,得到初始语言模型;而后利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集;之后利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型;最后利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。由于测试文本集中的测试文本极为丰富,因而基于测试文本和测试结果构建的第二文本样本集中的样本极为丰富。同时,由于测试结果由初始语言模型对测试文本测试后得到,因而第二文本样本集中的样本均为针对当前的自然语言处理任务的样本。由此,使用针对性较强且样本丰富的第二文本样本集训练得到第二预训练模型,能够提高第二预训练模型的处理效果,进而使目标语言模型能够输出更为准确的文本处理结果。
继续参见图6,作为对上述图2所示方法的实现,本申请提供了一种文本类别检测装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的文本类别检测装置600包括:获取单元601,用于获取目标文本;类别检测单元602,用于将上述目标文本输入至采用图1对应的实施例的方法预先训练得到的目标语言模型,得到上述目标文本的类别信息。
可以理解的是,该装置600中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
继续参见图7,作为对上述图3所示方法的实现,本申请提供了一种实体识别装置的一个实施例。该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的实体识别装置700包括:获取单元701,用于获取目标文本;实体识别单元702,用于将目标文本输入至采用图1对应的实施例的方法预先训练得到的目标语言模型,得到上述目标文本中的实体。
可以理解的是,该装置700中记载的诸单元与参考图3描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置700及其中包含的单元,在此不再赘述。
继续参见图8,作为对上述图4所示方法的实现,本申请提供了一种信息提取装置的一个实施例。该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的信息提取装置800包括:获取单元801,用于获取目标文本;关键词提取单元802,用于将上述目标文本输入至采用图1对应的实施例的方法预先训练得到的目标语言模型,得到上述目标文本中的关键词;汇总单元803,用于将上述关键词进行汇总,得到目标信息。
可以理解的是,该装置800中记载的诸单元与参考图4描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置800及其中包含的单元,在此不再赘述。
下面参考图9,其示出了用于实现本申请的一些实施例的电子设备的结构示意图。图9示出的电子设备仅仅是一个示例,不应对本申请的实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储装置908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置907;包括例如磁盘、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图9中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本申请的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本申请的一些实施例的方法中限定的上述功能。
需要说明的是,本申请的一些实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperTextTransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:语言模型训练方法,其特征在于,方法包括:基于自然语言处理任务选取第一文本样本集,并利用第一文本样本集对第一预训练模型进行训练,得到初始语言模型;利用初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和测试文本,生成第二文本样本集;利用第二文本样本集对第一预训练模型进行训练,得到第二预训练模型;利用第一文本样本集对第二预训练模型进行训练,得到目标语言模型。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的一些实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++;还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接),上述网络包括局域网(LAN)或广域网(WAN)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一确定单元、第二确定单元、选取单元和第三确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本申请的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种语言模型训练方法,其特征在于,所述方法包括:
基于自然语言处理任务选取第一文本样本集,并利用所述第一文本样本集对第一预训练模型进行训练,得到初始语言模型;
利用所述初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和所述测试文本,生成第二文本样本集;
利用所述第二文本样本集对所述第一预训练模型进行训练,得到第二预训练模型;
利用所述第一文本样本集对所述第二预训练模型进行训练,得到目标语言模型;
所述利用所述第二文本样本集对所述第一预训练模型进行训练,得到第二预训练模型,包括:
在所述第二文本样本集的各文本样本的首字符前添加预设标识符;
将添加所述预设标识符后的文本样本输入至所述第一预训练模型,得到所述第一预训练模型输出的向量序列;
基于所述向量序列、第一损失函数和第二损失函数,确定所述第一预训练模型的损失值;
基于所述损失值调整所述第一预训练模型的参数,得到第二预训练模型。
2.根据权利要求1所述的方法,其特征在于,所述基于自然语言处理任务选取第一文本样本集,并利用所述第一文本样本集对第一预训练模型进行训练,得到初始语言模型,包括:
基于自然语言处理任务选取第一文本样本集和所述第一损失函数;
利用所述第一文本样本集和所述第一损失函数,对第一预训练模型进行训练,得到初始语言模型。
3.根据权利要求2所述的方法,其特征在于,所述第一预训练模型基于第二损失函数训练得到。
4.根据权利要求1所述的方法,其特征在于,所述向量序列中包括与所述预设标识符对应的向量和与文本样本中的各字对应的向量;以及,
所述基于所述向量序列、所述第一损失函数和所述第二损失函数,确定所述第一预训练模型的损失值,包括:
基于所述自然语言处理任务,选取所述向量序列中的目标向量;
基于所述目标向量和所述第一损失函数,确定第一损失值;
基于所述向量序列和所述第二损失函数,确定第二损失值;
基于所述第一损失值和所述第二损失值,确定所述第一预训练模型的损失值。
5.根据权利要求4所述的方法,其特征在于,所述自然语言处理任务包括以下至少一项:文本分类任务、实体识别任务、阅读理解任务;以及,
所述基于所述自然语言处理任务,选取所述向量序列中的目标向量,包括:
响应于所述自然语言处理任务为文本分类任务,选取所述预设标识符对应的向量作为目标向量;
响应于所述自然语言处理任务为实体识别任务或阅读理解任务,选取文本样本中的各词对应的向量作为目标向量。
6.根据权利要求2所述的方法,其特征在于,所述自然语言处理任务包括以下至少一项:文本分类任务、实体识别任务、阅读理解任务;以及,基于自然语言处理任务选取第一损失函数,包括:
响应于所述自然语言处理任务为文本分类任务,选取交叉熵损失函数作为第一损失函数;
响应于所述自然语言处理任务为实体识别任务,选取条件随机场损失函数作为第一损失函数;
响应于所述自然语言处理任务为阅读理解任务,将用于确定起止区间损失的损失函数作为第一损失函数。
7.根据权利要求1所述的方法,其特征在于,所述基于测试结果和所述测试文本,生成第二文本样本集,包括:
对于所述测试文本集中的每个测试文本,将该测试文本作为文本样本,将该测试文本对应的测试结果作为标注,得到已标注的文本样本;
将所述已标注的文本样本进行汇总,得到第二文本样本集。
8.一种文本类别检测方法,其特征在于,所述方法包括:
获取目标文本;
将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本的类别信息。
9.一种实体识别方法,其特征在于,所述方法包括:
获取目标文本;
将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本中的实体。
10.一种信息提取方法,其特征在于,所述方法包括:
获取目标文本;
将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本中的关键词;
将所述关键词进行汇总,得到目标信息。
11.一种语言模型训练装置,其特征在于,所述装置包括:
第一训练单元,用于基于自然语言处理任务选取第一文本样本集,并利用所述第一文本样本集对第一预训练模型进行训练,得到初始语言模型;
测试单元,用于利用所述初始语言模型对预设的测试文本集中的测试文本进行测试,并基于测试结果和所述测试文本,生成第二文本样本集;
第二训练单元,用于利用所述第二文本样本集对所述第一预训练模型进行训练,得到第二预训练模型;
其中,所述第二训练单元,还用于:在所述第二文本样本集的各文本样本的首字符前添加预设标识符;将添加所述预设标识符后的文本样本输入至所述第一预训练模型,得到所述第一预训练模型输出的向量序列;基于所述向量序列、第一损失函数和第二损失函数,确定所述第一预训练模型的损失值;基于所述损失值调整所述第一预训练模型的参数,得到第二预训练模型;
第三训练单元,用于利用所述第一文本样本集对所述第二预训练模型进行训练,得到目标语言模型。
12.一种文本类别检测装置,其特征在于,所述装置包括:
获取单元,用于获取目标文本;
类别检测单元,用于将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本的类别信息。
13.一种实体识别装置,其特征在于,所述装置包括:
获取单元,用于获取目标文本;
实体识别单元,用于将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本中的实体。
14.一种信息提取装置,其特征在于,所述装置包括:
获取单元,用于获取目标文本;
关键词提取单元,用于将所述目标文本输入至采用权利要求1-7之一所述的方法预先训练得到的目标语言模型,得到所述目标文本中的关键词;
汇总单元,用于将所述关键词进行汇总,得到目标信息。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
CN202110137597.4A 2021-02-01 2021-02-01 语言模型训练方法、装置、电子设备和计算机可读介质 Active CN112966712B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110137597.4A CN112966712B (zh) 2021-02-01 2021-02-01 语言模型训练方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110137597.4A CN112966712B (zh) 2021-02-01 2021-02-01 语言模型训练方法、装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN112966712A CN112966712A (zh) 2021-06-15
CN112966712B true CN112966712B (zh) 2023-01-20

Family

ID=76273574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110137597.4A Active CN112966712B (zh) 2021-02-01 2021-02-01 语言模型训练方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN112966712B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420123A (zh) * 2021-06-24 2021-09-21 中国科学院声学研究所 语言模型的训练方法、nlp任务处理方法及装置
CN113255328B (zh) * 2021-06-28 2024-02-02 北京京东方技术开发有限公司 语言模型的训练方法及应用方法
CN113554168A (zh) * 2021-06-29 2021-10-26 北京三快在线科技有限公司 模型训练、向量生成方法、装置、电子设备及存储介质
CN113935305A (zh) * 2021-08-10 2022-01-14 上海明略人工智能(集团)有限公司 一种多阶段多任务的文本阅读理解方法及装置
CN113591459B (zh) * 2021-08-10 2023-09-15 平安银行股份有限公司 地址标准化处理方法、装置、电子设备及可读存储介质
CN113656573B (zh) * 2021-08-27 2024-02-06 北京大数医达科技有限公司 文本信息生成方法、装置、终端设备
CN114141236B (zh) * 2021-10-28 2023-01-06 北京百度网讯科技有限公司 语言模型更新方法、装置、电子设备及存储介质
CN114078475B (zh) * 2021-11-08 2023-07-25 北京百度网讯科技有限公司 语音识别和更新方法、装置、设备和存储介质
CN114139524B (zh) * 2021-11-29 2022-09-13 浙江大学 故事文本的预测方法、装置以及电子设备
CN114330512B (zh) * 2021-12-13 2024-04-26 腾讯科技(深圳)有限公司 数据处理方法、装置、电子设备及计算机可读存储介质
CN114462397B (zh) * 2022-01-20 2023-09-22 连连(杭州)信息技术有限公司 一种语种识别模型训练方法、语种识别方法、装置及电子设备
CN114611625A (zh) * 2022-03-23 2022-06-10 北京百度网讯科技有限公司 语言模型训练、数据处理方法、装置、设备、介质及产品
CN114723045B (zh) * 2022-04-06 2022-12-20 北京百度网讯科技有限公司 模型训练方法、装置、系统、设备、介质及程序产品
CN115269844B (zh) * 2022-08-01 2024-03-29 腾讯科技(深圳)有限公司 模型的处理方法、装置、电子设备和存储介质
CN115345167B (zh) * 2022-08-29 2023-11-10 华润数字科技有限公司 一种多模型文本处理方法、装置、计算机设备及存储介质
CN115600646B (zh) * 2022-10-19 2023-10-03 北京百度网讯科技有限公司 语言模型的训练方法、装置、介质及设备
CN115858783A (zh) * 2022-11-30 2023-03-28 北京猿力教育科技有限公司 主题识别模型的训练方法及装置
CN115994225B (zh) * 2023-03-20 2023-06-27 北京百分点科技集团股份有限公司 文本的分类方法、装置、存储介质及电子设备
CN116469111B (zh) * 2023-06-08 2023-09-15 江西师范大学 一种文字生成模型训练方法及目标文字生成方法
CN116861885B (zh) * 2023-07-11 2024-05-07 贝壳找房(北京)科技有限公司 标签生成方法、装置、设备和介质
CN116756579B (zh) * 2023-08-22 2023-12-12 腾讯科技(深圳)有限公司 大语言模型的训练方法及基于大语言模型的文本处理方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214386A (zh) * 2018-09-14 2019-01-15 北京京东金融科技控股有限公司 用于生成图像识别模型的方法和装置
CN109344908A (zh) * 2018-10-30 2019-02-15 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110489521A (zh) * 2019-07-15 2019-11-22 北京三快在线科技有限公司 文本类别检测方法、装置、电子设备和计算机可读介质
CN110941945A (zh) * 2019-12-02 2020-03-31 百度在线网络技术(北京)有限公司 语言模型预训练方法和装置
CN111104482A (zh) * 2019-12-18 2020-05-05 北京百度网讯科技有限公司 数据处理方法和装置
CN111695352A (zh) * 2020-05-28 2020-09-22 平安科技(深圳)有限公司 基于语义分析的评分方法、装置、终端设备及存储介质
CN111709248A (zh) * 2020-05-28 2020-09-25 北京百度网讯科技有限公司 文本生成模型的训练方法、装置及电子设备
CN111783455A (zh) * 2020-07-13 2020-10-16 网易(杭州)网络有限公司 文本生成模型的训练方法及装置、文本生成方法及装置
CN111832290A (zh) * 2020-05-25 2020-10-27 北京三快在线科技有限公司 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质
CN111950295A (zh) * 2020-08-10 2020-11-17 北京嘀嘀无限科技发展有限公司 一种训练自然语言处理模型的方法和系统
CN112131366A (zh) * 2020-09-23 2020-12-25 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334497A (zh) * 2018-02-06 2018-07-27 北京航空航天大学 自动生成文本的方法和装置
CN112069329B (zh) * 2020-09-11 2024-03-15 腾讯科技(深圳)有限公司 文本语料的处理方法、装置、设备及存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214386A (zh) * 2018-09-14 2019-01-15 北京京东金融科技控股有限公司 用于生成图像识别模型的方法和装置
CN109344908A (zh) * 2018-10-30 2019-02-15 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
WO2020087974A1 (zh) * 2018-10-30 2020-05-07 北京字节跳动网络技术有限公司 生成模型的方法和装置
CN110489521A (zh) * 2019-07-15 2019-11-22 北京三快在线科技有限公司 文本类别检测方法、装置、电子设备和计算机可读介质
CN110941945A (zh) * 2019-12-02 2020-03-31 百度在线网络技术(北京)有限公司 语言模型预训练方法和装置
CN111104482A (zh) * 2019-12-18 2020-05-05 北京百度网讯科技有限公司 数据处理方法和装置
CN111832290A (zh) * 2020-05-25 2020-10-27 北京三快在线科技有限公司 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质
CN111695352A (zh) * 2020-05-28 2020-09-22 平安科技(深圳)有限公司 基于语义分析的评分方法、装置、终端设备及存储介质
CN111709248A (zh) * 2020-05-28 2020-09-25 北京百度网讯科技有限公司 文本生成模型的训练方法、装置及电子设备
CN111783455A (zh) * 2020-07-13 2020-10-16 网易(杭州)网络有限公司 文本生成模型的训练方法及装置、文本生成方法及装置
CN111950295A (zh) * 2020-08-10 2020-11-17 北京嘀嘀无限科技发展有限公司 一种训练自然语言处理模型的方法和系统
CN112131366A (zh) * 2020-09-23 2020-12-25 腾讯科技(深圳)有限公司 训练文本分类模型及文本分类的方法、装置及存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Zero-Shot Multilingual Sentiment Analysis using Hierarchical Attentive Network and BERT;Anindya Sarkar;《NLPIR 2019: Proceedings of the 2019 3rd International Conference on Natural Language Processing and Information Retrieval》;20190630;全文 *
信息安全领域中鲁棒的深度学习及其应用研究;王赛男;《智能计算机与应用》;20191101(第06期);全文 *
基于实时样本采集的个性化手写汉字输入系统设计;张帆等;《计算机测量与控制》;20180125(第01期);全文 *
基于深度学习的图像样本标签赋值校正算法实现;舒忠;《数字印刷》;20191010;全文 *
基于预训练模型的机器阅读理解研究综述;张超然等;《计算机工程与应用》;20200420(第11期);全文 *

Also Published As

Publication number Publication date
CN112966712A (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
CN112966712B (zh) 语言模型训练方法、装置、电子设备和计算机可读介质
CN110969012B (zh) 文本纠错方法、装置、存储介质及电子设备
CN109376267B (zh) 用于生成模型的方法和装置
CN111274815A (zh) 用于挖掘文本中的实体关注点的方法和装置
CN111368559A (zh) 语音翻译方法、装置、电子设备及存储介质
CN112650841A (zh) 信息处理方法、装置和电子设备
CN111104599B (zh) 用于输出信息的方法和装置
CN111738010B (zh) 用于生成语义匹配模型的方法和装置
CN111368560A (zh) 文本翻译方法、装置、电子设备及存储介质
CN112200173B (zh) 多网络模型训练方法、图像标注方法和人脸图像识别方法
CN111340220A (zh) 用于训练预测模型的方法和装置
CN111382261A (zh) 摘要生成方法、装置、电子设备及存储介质
CN111563390A (zh) 文本生成方法、装置和电子设备
CN112712795A (zh) 标注数据确定方法、装置、介质及电子设备
CN112182281B (zh) 一种音频推荐方法、装置及存储介质
CN113051933B (zh) 模型训练方法、文本语义相似度确定方法、装置和设备
CN112102801B (zh) 一种主旋律的生成方法、装置、电子设备及存储介质
CN113392018A (zh) 流量分发方法、装置、存储介质及电子设备
CN113033707A (zh) 视频分类方法、装置、可读介质及电子设备
CN111026849A (zh) 数据处理方法和装置
CN111916050A (zh) 语音合成方法、装置、存储介质和电子设备
CN116644180A (zh) 文本匹配模型的训练方法、训练系统和文本标签确定方法
CN116821327A (zh) 文本数据处理方法、装置、设备、可读存储介质及产品
CN114064854A (zh) 查询文本处理方法、装置、设备及存储介质
CN113223496A (zh) 一种语音技能测试方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant