CN110188360B - 模型训练方法和装置 - Google Patents

模型训练方法和装置 Download PDF

Info

Publication number
CN110188360B
CN110188360B CN201910493658.3A CN201910493658A CN110188360B CN 110188360 B CN110188360 B CN 110188360B CN 201910493658 A CN201910493658 A CN 201910493658A CN 110188360 B CN110188360 B CN 110188360B
Authority
CN
China
Prior art keywords
model
loss value
loss
text
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910493658.3A
Other languages
English (en)
Other versions
CN110188360A (zh
Inventor
朱丹翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910493658.3A priority Critical patent/CN110188360B/zh
Publication of CN110188360A publication Critical patent/CN110188360A/zh
Application granted granted Critical
Publication of CN110188360B publication Critical patent/CN110188360B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提出一种模型训练方法和装置,方法包括:利用第一BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,训练样本包括文字位置乱序的句子;根据多个任务的预测结果,计算模型损失值,模型损失值通过多个损失函数的损失值得出;根据计算的模型损失值,对第一BERT模型进行调整优化,以得到第二BERT模型。本发明实施例输入的训练样本由于是字词位置乱序的句子,因此在BERT模型训练时,每次都能训练句子中的所有字词,从而有效提升了模型收敛速度,减少了模型训练时间。

Description

模型训练方法和装置
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种模型训练方法和装置。
背景技术
在现有的BERT(Bidirectional Encoder Representations from Transformers,变换的双向编码器表示)模型训练过程中,模型的训练任务包括预测句子关系的任务和预测句子中被遮蔽词的任务。其中,预测句子中被遮蔽词的具体方式为:随机将句子中的字或者词替换成一个遮蔽替代符,并且要求模型预测出被遮蔽的词是什么,这种方式可以使模型学会根据周围字词信息推断出被遮蔽掉的字词是什么,进而获取建模字词的能力。
但是缺点也很明显,输入的句子中被遮蔽掉的字词不能太多,如果比例过高,会导致句子缺失的信息太多,无法预测出被遮蔽掉的字词。现有的BERT模型使用了15%的字词遮蔽率可以训练出不错的语义表示模型,但是同时也导致每次只有15%的字词得到训练,进而减慢了模型收敛速度。
发明内容
本发明实施例提供一种模型训练方法和装置,以解决现有技术中的一个或多个技术问题。
第一方面,本发明实施例提供了一种模型训练方法,包括:
利用第一变换双向编码器表征BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,所述训练样本包括文字位置乱序的句子;
根据所述多个任务的预测结果,计算模型损失值,所述模型损失值通过多个损失函数的损失值得出;
根据计算的模型损失值,对所述第一BERT模型进行调整优化,以得到第二BERT模型。
在一种实施方式中,根据所述多个任务的预测结果,计算模型损失值,包括:
利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值。
在一种实施方式中,根据所述多个任务的预测结果,计算模型损失值,还包括:
利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值。
在一种实施方式中,根据所述多个任务的预测结果,计算模型损失值,还包括:
利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值。
在一种实施方式中,获取文字位置是否乱序的预测结果,包括:
通过所述第一BERT模型的最后一个变换Transformer结构,得到第一特征向量;
将所述第一特征向量输入第一全连接层,得到所述文字位置是否乱序的预测结果。
在一种实施方式中,获取文字位置重排序的预测结果,包括:
通过所述第一BERT模型的最后一个Transformer结构,得到第二特征向量;
将所述第二特征向量输入第二全连接层,得到所述文字位置重排序的预测结果。
第二方面,本发明实施例提供了一种模型训练装置,包括:
输出模块,用于利用第一变换双向编码器表征BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,所述训练样本包括文字位置乱序的句子;
计算模块,用于根据所述多个任务的预测结果,计算模型损失值,所述模型损失值通过多个损失函数的损失值得出;
优化模块,用于根据计算的模型损失值,对所述第一BERT模型进行调整优化,以得到第二BERT模型。
在一种实施方式中,所述计算模块包括:
第一计算子模块,用于利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值。
在一种实施方式中,所述计算模块包括:
第二计算子模块,用于利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值。
在一种实施方式中,所述计算模块包括:
第三计算子模块,用于利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值。
第三方面,本发明实施例提供了一种模型训练终端,所述模型训练终端的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述模型训练终端的结构中包括处理器和存储器,所述存储器用于存储支持所述模型训练终端执行上述模型训练方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述模型训练终端还可以包括通信接口,用于与其他设备或通信网络通信。
第四方面,本发明实施例提供了一种计算机可读存储介质,用于存储模型训练终端所用的计算机软件指令,其包括用于执行上述模型训练方法所涉及的程序。
上述技术方案中的一个技术方案具有如下优点或有益效果:本发明实施例输入的训练样本由于是字词位置乱序的句子,因此在BERT模型训练时,每次都能训练句子中的所有字词,从而有效提升了模型收敛速度,减少了模型训练时间。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1示出根据本发明实施例的模型训练方法的流程图。
图2示出根据本发明另一实施例的模型训练方法的流程图。
图3示出根据本发明实施例的模型训练方法的步骤S210的具体流程图。
图4示出根据本发明实施例的模型训练方法的步骤S220的具体流程图。
图5示出根据本发明实施例的模型训练方法的步骤S200的具体流程图。
图6示出根据本发明实施例的模型训练方法的应用示例的框图。
图7示出根据本发明实施例的模型训练装置的结构框图。
图8示出根据本发明实施例的模型训练装置的计算模块的结构框图。
图9示出根据本发明实施例的模型训练终端的结构示意图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1示出根据本发明实施例的模型训练方法的流程图。如图1所示,该模型训练方法包括:
S100:利用第一BERT(Bidirectional Encoder Representations fromTransformers,变换双向编码器表征)模型对输入的训练样本进行处理,并输出多个任务的预测结果。其中,训练样本包括文字位置乱序的句子。
需要说明的是,第一BERT模型的模型结构可采用已有的BERT模型的模型结构。BERT模型由多层Transformer(变化)模型结构连接组成。每个Transformer模型至少具有:位置编码层(Positional Encoding)、模型编码层以及模型解码层。其中,模型编码层包括多头注意力机制(Multi-head self-attention)和位置全链接前馈网络(Position-wisefeed-forward networks)。模型解码结构与模型编码层结构类似,不再赘述。
模型的任务可以包括模型需要基于训练样本完成的预测任务。文字位置乱序的句子可以包括所有的文字位置均乱序的句子,例如,“天小今明萨吃披(今天小明吃披萨)”。还可以包括部分文字位置乱序的句子,例如,“天吃小今明披萨(今天小明吃披萨)”。
S200:根据多个任务的预测结果,进行模型损失值计算,模型损失值通过多个损失函数的损失值得出。每个任务均会对训练样本输出对应的预测结果。
S300:根据计算的模型损失值,对第一BERT模型进行调整优化,以得到第二BERT模型。
在一个示例中,根据计算的模型损失值,对第一BERT模型进行调整优化,以得到第二BERT模型,包括:
S10:判断计算的模型损失值是否达到预设损失值;
S20:若未达到,则采用反向传播算法根据计算的模型损失值对第一BERT模型的参数进行优化;
S30:利用参数优化后的第一BERT模型重新对训练样本进行处理;
S40:根据参数优化后的第一BERT模型输出的多个任务的预测结果,重新进行模型损失值计算;
S50:若损失值达到预设损失值,则认为模型收敛,将参数优化后的第一BERT模型作为最终训练得到的第二BERT模型。若损失值还未达到预设损失值,则重复步骤S10-S40,经过多轮迭代训练直至损失值达到预设损失值。
在一种实施方式中,如图2所示,根据多个任务的预测结果,进行模型损失值计算,包括:
S210:利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值。
在一个示例中,为了实现文字位置是否乱序的预测,需要向第一BERT模型中输入符合第一任务要求的训练样本。训练样本可以包括文字位置乱序句子,以及文字位置正确的句子。其中,文字位置乱序句子和文字位置正确的句子数量各占50%。例如,训练样本包括“今天小明吃披萨”、“天小今明萨吃披”、“小明今天吃的什么”、“今吃小天明什么”等。
在一种实施方式中,如图3所示,获取文字位置是否乱序的预测结果,包括:
S2110:通过第一BERT模型的最后一层Transformer(变换)结构,得到第一特征向量。第一特征向量中包含有与文字位置有关的信息。
在一个示例中,第一特征向量可以包括语法信息、语义信息、上下文信息等。
S2120:将第一特征向量输入第一全连接层,得到文字位置是否乱序的预测结果。第一全连接层可以与最后一层Transformer结构的cls(classification,分类)连接。
在一种实施方式中,如图2所示,根据多个任务的预测结果,进行模型损失值计算,还包括:
S220:利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值。训练样本可以包括文字位置乱序句子,以及文字位置正确的句子。
在一个示例中,为了实现文字位置重排序的预测,需要向第一BERT模型中输入符合二任务要求的训练样本。训练样本可以包括文字位置乱序句子,以及文字位置正确的句子。其中,文字位置乱序句子和文字位置正确的句子数量各占50%。例如,训练样本包括“今天小明吃披萨”、“天小今明萨吃披”、“小明今天吃的什么”、“今吃小天明什么”等。
在一种实施方式中,如图4所示,获取文字位置重排序的预测结果,包括:
S2210:通过第一BERT模型的最后一层Transformer结构,得到第二特征向量。第二特征向量中包含有与文字位置有关的信息。
在一个示例中,第二特征向量可以包括语法信息、语义信息、上下文信息等。
S2220:将第二特征向量输入第二全连接层,得到文字位置重排序的预测结果。
在一种实施方式中,如图2所示,根据多个任务的预测结果,进行模型损失值计算,还包括:
S230:利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值。
在一个示例中,为了实现文字位置重排序的预测,需要向第一BERT模型中输入符合三任务要求的训练样本。训练样本可以包括上下句关系正确的句子,以及上下句关系错误的句子。其中,上下句关系正确的句子和上下句关系错误的句子数量各占50%。例如,训练样本包括“今天小明吃的什么,今天小明吃披萨,”、“今吃小天明什么,天小今明萨吃披”等。
在一种实施方式中,获取的句子关系预测结果,包括:
通过第一BERT模型的最后一层Transformer结构,得到CLS特征向量。
将CLS特征向量输入第三全连接层,得到句子关系预测结果。
在一种实施方式中,如图5所示,根据多个任务的预测结果,进行模型损失值计算,包括:
S210:利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值。
S220:利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值。
S230:利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值。
S240:将第一损失值、第二损失值以及第三损失值相加,得到模型损失值。
在一个示例中,如图6所示,当输入第一BERT模型的训练样本为“天吃比明今萨小”时,第一BERT模型输出的重排序预测结果可以为“小明今天吃比萨”。然后通过重排序损失函数对预测结果进行计算。同时,第一BERT模型的最后一层cls输出的文字位置是否乱序预测结果通过文字乱序损失函数计算,第一BERT模型的最后一层cls输出的句子关系预测结果通过句子关系函数计算。
图7示出根据本发明实施例的模型训练装置的结构框图。如图7所示,该模型训练装置包括:
输出模块10,用于利用第一BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,训练样本包括文字位置乱序的句子。
计算模块20,用于根据多个任务的预测结果,进行模型损失值计算,模型损失值通过多个损失函数的损失值得出。
优化模块30,用于根据计算的模型损失值,对第一BERT模型进行调整优化,以得到第二BERT模型。
在一种实施方式中,如图8所示,计算模块20包括:
第一计算子模块21,用于利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值。
在一种实施方式中,如图8所示,计算模块20包括:
第二计算子模块22,用于利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值。
在一种实施方式中,如图8所示,计算模块包括:
第三计算子模块23,用于利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值。
本发明实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
图9示出根据本发明实施例的模型训练终端的结构框图。如图9所示,该终端包括:存储器910和处理器920,存储器910内存储有可在处理器920上运行的计算机程序。所述处理器920执行所述计算机程序时实现上述实施例中的模型训练方法。所述存储器910和处理器920的数量可以为一个或多个。
该终端还包括:
通信接口930,用于与外界设备进行通信,进行数据模型训练传输。
存储器910可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器910、处理器920和通信接口930独立实现,则存储器910、处理器920和通信接口930可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,PeripheralComponent Interconnect)总线或扩展工业标准体系结构(EISA,Extended IndustryStandard Architecture)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述实施例中任一所述方法。
本发明实施例相比现有的对句子进行字词遮盖的方式,不会受到15%遮盖率的限制,每一次都能训练句子中100%的字词,进而有效提升了模型收敛速度。通过提升模型收敛速度来减少模型训练时间,不需要增加额外的硬件资源。并且本发明实施例还可以和fp16(Half-precision floating-point,半精度浮点数)、xla(Accelerated linearalgebra,加速线性代数器)等计算加速手段共存,进一步减少模型训练时间。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (6)

1.一种模型训练方法,其特征在于,包括:
利用第一变换双向编码器表征BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,所述训练样本包括文字位置乱序的句子;
根据所述多个任务的预测结果,计算模型损失值,包括:利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值;或,利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值;或,利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值,所述模型损失值通过多个损失函数的损失值得出;
根据计算的模型损失值,对所述第一BERT模型进行调整优化,以得到第二BERT模型。
2.根据权利要求1所述的方法,其特征在于,获取文字位置是否乱序的预测结果,包括:
通过所述第一BERT模型的最后一个变换Transformer结构,得到第一特征向量;
将所述第一特征向量输入第一全连接层,得到所述文字位置是否乱序的预测结果。
3.根据权利要求1所述的方法,其特征在于,获取文字位置重排序的预测结果,包括:
通过所述第一BERT模型的最后一个Transformer结构,得到第二特征向量;
将所述第二特征向量输入第二全连接层,得到所述文字位置重排序的预测结果。
4.一种模型训练装置,其特征在于,包括:
输出模块,用于利用第一变换双向编码器表征BERT模型对输入的训练样本进行处理,并输出多个任务的预测结果,其中,所述训练样本包括文字位置乱序的句子;
计算模块,用于根据所述多个任务的预测结果,计算模型损失值,进一步用于:利用第一任务对应的文字位置是否乱序的预测结果,通过文字乱序损失函数计算第一损失值;或,利用第二任务对应的文字位置重排序的预测结果,通过重排序损失函数计算第二损失值;或,利用第三任务对应的句子关系预测结果,通过句子关系损失函数计算第三损失值,所述模型损失值通过多个损失函数的损失值得出;
优化模块,用于根据计算的模型损失值,对所述第一BERT模型进行调整优化,以得到第二BERT模型。
5.一种模型训练终端,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至3中任一项所述方法。
6.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至3中任一项所述方法。
CN201910493658.3A 2019-06-06 2019-06-06 模型训练方法和装置 Active CN110188360B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910493658.3A CN110188360B (zh) 2019-06-06 2019-06-06 模型训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910493658.3A CN110188360B (zh) 2019-06-06 2019-06-06 模型训练方法和装置

Publications (2)

Publication Number Publication Date
CN110188360A CN110188360A (zh) 2019-08-30
CN110188360B true CN110188360B (zh) 2023-04-25

Family

ID=67720894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910493658.3A Active CN110188360B (zh) 2019-06-06 2019-06-06 模型训练方法和装置

Country Status (1)

Country Link
CN (1) CN110188360B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825548B (zh) * 2019-10-24 2022-11-08 新华三信息安全技术有限公司 异常检测方法、模型训练方法及相关装置
CN110852331B (zh) * 2019-10-25 2023-09-08 中电科大数据研究院有限公司 一种结合bert模型的图像描述生成方法
CN110795934B (zh) * 2019-10-31 2023-09-19 北京金山数字娱乐科技有限公司 语句分析模型的训练方法及装置、语句分析方法及装置
CN111061868B (zh) * 2019-11-05 2023-05-23 百度在线网络技术(北京)有限公司 读法预测模型获取及读法预测方法、装置及存储介质
CN111125491A (zh) * 2019-11-29 2020-05-08 腾讯科技(深圳)有限公司 商品信息的搜索方法和装置、存储介质及电子装置
CN111026849B (zh) * 2019-12-17 2023-09-19 北京百度网讯科技有限公司 数据处理方法和装置
CN111275055B (zh) * 2020-01-21 2023-06-06 北京市商汤科技开发有限公司 网络训练方法及装置、图像处理方法及装置
CN113496122A (zh) * 2020-04-08 2021-10-12 中移(上海)信息通信科技有限公司 命名实体识别方法、装置、设备及介质
CN111709234B (zh) * 2020-05-28 2023-07-25 北京百度网讯科技有限公司 文本处理模型的训练方法、装置及电子设备
CN111859982B (zh) * 2020-06-19 2024-04-26 北京百度网讯科技有限公司 语言模型的训练方法、装置、电子设备及可读存储介质
US11715461B2 (en) 2020-10-21 2023-08-01 Huawei Technologies Co., Ltd. Transformer-based automatic speech recognition system incorporating time-reduction layer
CN112418291A (zh) * 2020-11-17 2021-02-26 平安科技(深圳)有限公司 一种应用于bert模型的蒸馏方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN106250464A (zh) * 2016-07-28 2016-12-21 北京百度网讯科技有限公司 排序模型的训练方法及装置
CN107622050A (zh) * 2017-09-14 2018-01-23 武汉烽火普天信息技术有限公司 基于Bi‑LSTM和CRF的文本序列标注系统及方法
CN107657008A (zh) * 2017-09-25 2018-02-02 中国科学院计算技术研究所 基于深度判别排序学习的跨媒体训练及检索方法
CN108121814A (zh) * 2017-12-28 2018-06-05 北京百度网讯科技有限公司 搜索结果排序模型生成方法和装置
CN108647255A (zh) * 2018-04-23 2018-10-12 清华大学 基于注意力回归的视频时序句子定位方法及装置
CN109408622A (zh) * 2018-10-31 2019-03-01 腾讯科技(深圳)有限公司 语句处理方法及其装置、设备和存储介质
CN109635274A (zh) * 2018-10-25 2019-04-16 平安科技(深圳)有限公司 文本输入的预测方法、装置、计算机设备和存储介质
CN109740077A (zh) * 2018-12-29 2019-05-10 北京百度网讯科技有限公司 基于语义索引的答案搜索方法、装置及其相关设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003902020A0 (en) * 2003-04-29 2003-05-15 Telstra New Wave Pty Ltd A process for grammatical inference
US20130260346A1 (en) * 2010-08-20 2013-10-03 Smarty Ants Inc. Interactive learning method, apparatus, and system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN106250464A (zh) * 2016-07-28 2016-12-21 北京百度网讯科技有限公司 排序模型的训练方法及装置
CN107622050A (zh) * 2017-09-14 2018-01-23 武汉烽火普天信息技术有限公司 基于Bi‑LSTM和CRF的文本序列标注系统及方法
CN107657008A (zh) * 2017-09-25 2018-02-02 中国科学院计算技术研究所 基于深度判别排序学习的跨媒体训练及检索方法
CN108121814A (zh) * 2017-12-28 2018-06-05 北京百度网讯科技有限公司 搜索结果排序模型生成方法和装置
CN108647255A (zh) * 2018-04-23 2018-10-12 清华大学 基于注意力回归的视频时序句子定位方法及装置
CN109635274A (zh) * 2018-10-25 2019-04-16 平安科技(深圳)有限公司 文本输入的预测方法、装置、计算机设备和存储介质
CN109408622A (zh) * 2018-10-31 2019-03-01 腾讯科技(深圳)有限公司 语句处理方法及其装置、设备和存储介质
CN109740077A (zh) * 2018-12-29 2019-05-10 北京百度网讯科技有限公司 基于语义索引的答案搜索方法、装置及其相关设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于前向分步算法的文档实体排序;王燕华;《华东师范大学学报(自然科学版)》;20180125(第01期);第96-107页 *

Also Published As

Publication number Publication date
CN110188360A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN110188360B (zh) 模型训练方法和装置
CN110276446B (zh) 模型训练和选择推荐信息的方法和装置
CN110210021B (zh) 阅读理解方法及装置
CN107608970B (zh) 词性标注模型生成方法和装置
CN111027428B (zh) 一种多任务模型的训练方法、装置及电子设备
US11636272B2 (en) Hybrid natural language understanding
US9477928B2 (en) System and method for comparing software frameworks
CN110245222B (zh) 对话模型训练方法及装置、对话生成方法及装置
JP7226514B2 (ja) 事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体
CN109739700B (zh) 一种接口测试方法和装置
CN114511472A (zh) 一种视觉定位方法、装置、设备及介质
US11423261B2 (en) Electronic device and model updating method
CN109471787B (zh) 软件质量评价方法及装置、存储介质、电子设备
CN111552652B (zh) 基于人工智能芯片的数据处理方法、装置和存储介质
US20160292064A1 (en) Iterative test generation based on data source analysis
CN110391955B (zh) 网络数据预处理方法、装置、设备及可读存储介质
KR20110109146A (ko) 행위 오류 분석 장치 및 그 방법
JP7338686B2 (ja) 半導体装置、制御フロー検査方法、制御フロー検査プログラム及び電子機器
US20150082278A1 (en) Clone detection method and clone function commonalizing method
US20220391676A1 (en) Quantization evaluator
CN111915017B (zh) 一种校准方法、装置、终端设备及存储介质
US11222402B2 (en) Adaptive image enhancement
JPWO2020166125A1 (ja) 翻訳用データ生成システム
CN113723610B (zh) 一种推理框架动态更新方法、装置、设备及可读存储介质
EP4184328A1 (en) Medical imaging device fault handling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant