CN115618964A - 一种模型训练的方法、装置、存储介质及电子设备 - Google Patents

一种模型训练的方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN115618964A
CN115618964A CN202211320460.3A CN202211320460A CN115618964A CN 115618964 A CN115618964 A CN 115618964A CN 202211320460 A CN202211320460 A CN 202211320460A CN 115618964 A CN115618964 A CN 115618964A
Authority
CN
China
Prior art keywords
result
target
data
determining
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211320460.3A
Other languages
English (en)
Other versions
CN115618964B (zh
Inventor
赵闻飙
苗书宇
郑霖
金宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202211320460.3A priority Critical patent/CN115618964B/zh
Publication of CN115618964A publication Critical patent/CN115618964A/zh
Application granted granted Critical
Publication of CN115618964B publication Critical patent/CN115618964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书公开了一种模型训练的方法、装置、存储介质及电子设备。该模型训练的方法包括:获取样本数据,将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率,从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果,根据每个目标结果对应的概率,确定每个目标结果对应的权重,根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。

Description

一种模型训练的方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种模型训练的方法、装置、存储介质及电子设备。
背景技术
随着科技的发展,深度学习算法已经在人们的日常生活及工作中发挥了越来越重要的作用,例如人脸识别、图像识别、自然语言处理(Natural Language Processing,NLP)、隐私数据处理、风险识别等多种业务场景,都需要应用相应的深度学习模型,以完成对数据的自动化处理。
然而,目前的模型训练过程中,无论模型的预测结果是否正确,都只考虑模型的预测结果为实际标签的概率,并仅根据该概率来确定模型的损失值,实现预测结果与实际标签之间差异的最小化。但是在实际应用中,很有可能出现数据标签标注错误的情况,在这种情况下,尽管模型的识别结果不是实际标签,但是该识别结果也有可能是正确的,如果只根据模型的预测结果为实际标签的概率来计算损失值,很有可能导致模型往错误的方向进行更新,从而影响训练后的模型对数据处理的准确性。
因此,如何在模型训练的过程中,避免标注错误的标签对模型训练结果的影响,提高训练后模型对数据处理的准确性,是一个亟待解决的问题。
发明内容
本说明书提供一种模型训练的方法、装置、存储介质及电子设备。以降低标注错误的标签对模型训练结果的影响从而提高训练后模型对数据处理的准确性。
本说明书采用下述技术方案:
本说明书提供了一种模型训练的方法,包括:
获取样本数据;
将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率;
从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果;
根据每个目标结果对应的概率,确定每个目标结果对应的权重;
根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
可选地,根据每个候选处理结果对应的概率以及所述权重,确定损失值,具体包括:
确定与所述标签信息相匹配的候选处理结果,作为命中结果;
针对每个目标结果,根据该目标结果对应的权重,对该目标结果对应的概率进行加权,得到该目标结果对应的加权后概率,以及,根据所述命中结果对应的指定权重,对所述命中结果对应的概率进行加权,得到所述命中结果对应的加权后概率;
根据每个目标结果对应的加权后概率,以及所述命中结果对应的加权后概率,确定所述损失值。
可选地,所述指定权重,大于每个目标结果对应的权重。
可选地,针对每个目标结果,该目标结果对应的概率与该目标结果对应的权重呈正相关关系。
可选地,根据每个目标结果对应的概率,确定每个目标结果对应的权重,具体包括:
针对每个目标结果,根据该目标结果对应的概率,确定该目标结果对应的初始权重;
若确定各目标结果中存在结果类别上归属于该目标结果的目标结果,提高所述初始权重,以确定出该目标结果对应的权重。
可选地,根据每个候选处理结果对应的概率以及所述权重,确定损失值,具体包括:
根据不同候选处理结果对应的概率,选取指定数量的候选处理结果;
根据选取出的各候选处理结果对应的概率,以及选取出的各候选处理结果对应的权重,确定所述损失值。
可选地,所述方法还包括:
获取待处理数据;
将所述待处理数据输入所述数据处理模型中,确定所述待处理数据对应的处理结果,并根据所述处理结果,进行业务风控,其中,所述数据处理模型通过上述模型训练的方法进行训练得到。
可选地,所述损失值包括:交叉熵损失的损失值。
本说明书提供了一种数据处理的装置,包括:
获取模块,获取样本数据;
输入模块,将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率;
第一确定模块,从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果;
第二确定模块,根据每个目标结果对应的概率,确定每个目标结果对应的权重;
训练模块,根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练的方法中,会先将样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率,而后从各候选处理结果中确定与样本数据对应的标签信息不匹配的目标结果,并根据每个目标结果对应的概率,确定每个目标结果对应的权重,进而根据每个候选处理结果对应的概率以及相应的权重,确定损失值,并根据该损失值,对数据处理模型进行训练。
从上述方法可以看出,本方案在确定损失值时,不仅仅会根据与标签相匹配的候选处理结果对应的概率确定该损失值,还会根据与标签信息不匹配的目标结果以及对应的权重确定该损失值,这样一来,当样本数据的标签信息发生错误时,就可以提高其将数据识别为正确标签的概率,而目前的方法只会根据与标签信息相匹配的候选处理结果的概率来计算损失值,当标签信息发生错误时势必会提高模型将样本数据识别为错误标签的概率,从而影响模型的训练结果,相比于现有方法,本方案能够保证模型的训练效果,进而提高训练完成后的模型对数据识别的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附
图中:
图1为本说明书中提供的一种模型训练的方法的流程示意图;
图2为本说明书提供的一种模型训练的装置的示意图;
图3为本说明书提供的一种对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种数据处理的方法的流程示意图。
S100:获取样本数据。
在诸如目标识别、数据分类、NPL等多个领域,往往需要将待处理的数据输入到预先训练的数据处理模型中,以通过数据处理模型来对待处理数据进行处理,从而得到处理结果。其中,该处理结果以及待处理数据可以为不同业务场景下的待处理数据以及该业务场景下对应的处理结果。例如,在图像识别的场景下,待处理数据可以为相应的图像数据,而数据处理模型对应的处理结果则可以为对该图像数据的识别结果,再例如,在数据分类的场景下,输入的待处理数据可以为不同类型的数据,则数据处理模型对应的处理结果则可以为各数据所属的数据类型。
在使用上述数据处理模型之前,需要事先对该数据处理模型进行训练,在模型训练的过程中,常常会出现一些标注错误的标签信息,这些错误的标签信息不但会影响到模型的训练结果,而且会进一步影响到训练完成后的模型对数据处理的准确性。
基于此,本说明书提供了一种对数据处理时采用的数据处理模型进行训练的模型训练方法。其中,需要获取样本数据,该样本数据可以为不同业务场景下的数据,如文本、音频、视频、图像等,本说明书对此不做具体限定,另外,上述样本数据包含有其对应的标签信息,如当业务场景为对图像中的物品进行识别时,该标签信息则可以为该图像中对应的实际物品的物品名称。
当然,上述样本数据也可以包含有多个标签信息,并且这些标签信息之间的关系为归属关系,如当图像中的物品为“猫”时,则该物品可以对应有“猫”和“动物”这两个标签,并且“猫”归属于“动物”这个标签信息对应的分类中。
需要说明的是,上述样本数据对应的标签信息可以是人为进行标注的,也可以是通过相应的算法自动生成的,本说明书对此不做具体限定。
在本说明书中,用于实现上述数据处理模型的训练方法的执行主体,可以指服务器等设置于业务平台的指定设备,为了便于描述,本说明书仅以服务器是执行主体为例,对本说明书提供的一种数据处理的方法进行说明。
S102:将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率。
在实际应用中,将数据输入到数据处理模型后,数据处理模型往往会得到该数据对应的多个处理结果以及这些处理结果对应的概率,而后将对应概率最大的处理结果作为最终输出的处理结果,因此,获取样本数据后,服务器可以将该样本数据输入待训练的数据处理模型中,并通过该数据处理模型,确定该样本数据对应的多个处理结果,作为候选处理结果,并确定各候选处理结果对应的概率。
S104:从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果。
服务器通过上述数据处理模型确定出各候选处理结果以及各候选处理结果对应的概率后,可以从各候选处理结果中,确定出与样本数据对应的标签信息不匹配的候选处理结果,作为目标结果,此外,服务器还可以从各候选处理结果中选取出与样本数据对应的标签信息相匹配的候选处理结果,作为命中结果。也就是说,针对每个候选处理结果,如果该候选处理结果与标签信息向对应,则将该候选处理结果作为命中结果,如果该候选处理结果与标签信息不对应,则将该标签信息作为目标结果。
S106:根据每个目标结果对应的概率,确定每个目标结果对应的权重。
确定各候选处理结果以及各候选处理结果对应的概率后,服务器可以确定出各目标结果对应的权重,以及命中结果对应的权重。
具体的,针对每个候选处理结果,服务器可以判断该候选处理结果是否与样本数据对应的标签信息相匹配,若匹配,则说明该候选处理结果为命中结果,服务器可以将该命中结果对应的权重设置为最大的权重,作为指定权重,从而提高数据处理模型下一次对该样本数据进行处理时,所得到的最终处理结果为该样本数据对应的标签信息的概率。
而对于与样本数据的标签信息不匹配的目标结果,服务器可以根据每个目标结果所对应的概率,确定每个目标结果对应的权重,其中,针对每个目标结果,该目标结果对应的概率越大,该目标结果对应的权重也就越大,该目标结果对应的概率越小,则该目标结果对应的权重也就越小。
需要说明的是,上述指定权重要大于每个目标结果对应的权重,也就是说,在样本数据对应的所有候选处理结果中,命中结果对应的权重要大于任意一个除命中结果以外的目标结果所对应的权重。例如,服务器可以将上述指定权重设置为1,则确定出的目标结果对应的权重可以介于0和1之间。
这样一来,即便由于样本数据的标签信息标注错误,导致数据处理模型最终的识别结果与标签信息不一致,所生成的损失值也不会影响到数据处理模型最终的训练结果以及数据处理的准确性。
例如,在图像识别的场景下,样本数据中的实际图像为“猫”,但是由于标注错误将其标签信息错误的标注为“狗”时,如果数据处理模型对该样本数据的识别结果为“猫”,此时数据处理模型会误认为该处理结果是错误的。在这一过程中,当数据处理模型最终的输出结果为“狗”时,说明此时概率最高的候选处理结果也为“狗”,通过将该样本数据识别为“狗”的概率和权重计算出的损失值,能够使数据处理模型根据该损失值进行更新后,提高将该样本数据识别为“狗”的概率,从而降低甚至避免标签信息标注错误对模型训练结果的影响。
而对于标签信息正常的数据,即便是模型对该样本数据的处理结果出现错误,但是由于与标签信息相匹配的命中结果对应的权重要大于目标结果对应的权重,所以模型更新后会进一步提高其对样本数据进行处理的处理结果为命中结果的概率。
另外,在本说明书中,由于样本数据可能对应有多个标签信息,所以确定出的与标签信息相匹配的命中结果也可以对应有多个。
S108:根据每个目标结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
确定每个候选处理结果对应的权重以及每个候选处理结果对应的概率后,服务器可以根据不同候选处理结果对应的概率以及权重,确定该数据处理模型对应的损失值。
具体的,针对每个目标结果,服务器可以根据该目标结果对应的权重,对该目标结果对应的概率进行加权,得到该目标结果对应的加权后概率,而对于命中结果,服务器可以根据该命中结果对应的指定权重,对该命中结果对应的概率进行加权,得到该命中结果对应的加权后概率,而后服务器可以根据每个目标结果对应的加权后概率,以及命中结果对应的加权后概率,确定上述损失值。
在本说明书中,该损失值可以为交叉熵的损失值,当然,也可以为其他损失函数的损失值,本说明书对此不做具体限定。
在实际应用中,有一些候选处理结果对应的概率较低,所以这些候选处理结果中几乎不可能包含有样本数据对应的实际处理结果,因此,服务器也可以在各候选处理结果中,选取出指定数量的候选处理结果,并通过这些选取出的候选处理结果对应的概率以及相应的权重,确定上述损失值。
例如,服务器可以选取出对应概率高于预设概率的各候选处理结果,当然,服务器也可以将各候选处理结果按照对应概率由大到小的顺序进行排序,从而选取指定位次之前的候选处理结果,从而将对应概率较低的候选处理结果进行剔除。
另外,当样本数据对应有多个互为归属关系的候选处理结果时,针对每个目标结果,服务器可以根据该目标结果对应的概率,确定该目标结果对应的初始权重,若确定各目标结果中存在结果类别上归属于该目标结果的候选处理结果时,服务器可以提高该目标结果对应的初始权重,以确定出该目标结果对应的权重。
例如,在图像识别场景下,如果待识别图像对应的标签信息为“狗”和“动物”,而在样本数据的各候选识别结果中,存在有互为归属关系的两个候选处理结果,如候选处理结果中包含有识别为“猫”和识别为“动物”的两个候选处理结果,当将该图像识别为“猫”时,则也一定会将其识别为“动物”,这就说明了该待识别图像会有更大的概率被识别为动物,因此,在这种情况下可以提高将其识别为“动物”这一候选处理结果的权重。
其中,该模型对应的损失值可以通过如下公式进行表示:
Figure BDA0003910135970000071
其中,其中,LOSS为数据处理模型对应的损失值,K为候选处理结果的总个数,target为样本数据的标签信息,qi为第i项候选处理结果所对应的概率,Pi为每个候选处理结果对应的权重,当第i项对应的候选处理结果与标签信息相匹配时,该候选处理结果为命中结果,其对应的权重Pi=1,当第i项对应的候选处理结果不与标签信息向匹配时,该候选处理结果为目标结果,则根据该目标结果对应的概率确定该目标结果对应的权重为α,并且在存在有结果类别上归属于该候选处理结果的目标结果时,提高该目标结果对应的权重。而对于未被选取的对应概率较低的候选处理结果,则可以不通过这些未被选取的候选处理结果对损失值进行计算。
确定该数据处理模型对应的损失值后,服务器可以以最小化该损失值为优化目标,对该数据处理模型进行训练,直至满足训练目标。
其中,该训练目标可以为:数据处理模型收敛至预设阈值范围内,或者,达到预设训练次数,以保证数据处理模型能够对待处理数据进行准确的处理,从而得到处理结果。预设阈值和预设训练次数可以根据实际需求而进行设定,本说明书不作具体限定。
当对该模型进行训练完成后,服务器即可以将获取到的待处理数据输入到该训练完成后的数据处理模型中,从而得到该待处理数据对应的处理结果,并根据该处理结果,进行业务风控。其中,如果上述数据处理模型为在实际应用中所使用的风控模型,那么,将待处理数据输入到该风控模型后,该风控模型即可输出相应的风控结果。风控结果可能根据风控模式的不同而有所不同,例如,如果该风控模型用于判断用户执行的业务过程中是否存在风险,那么,输入到上述风控模型中的数据可以是用户执行业务过程中所涉及的业务数据,相应的,风控模型输出的结果可以是用户在执行业务过程中面临风险的概率;再例如,如果该风控模型用于判断用户在执行业务过程中可能遇到的风险的风险类型,使得后续平台可以根据风控模型识别出的风险类型,来确定出相应的风控策略进行风控,那么,风控模型所输出的结果则可以是确定出的用户在执行业务过程中所遇到的风险的风险类型。
当然,本说明书所提供的模型训练的方法并不局限于业务风控的场景中,即,本说明书中提供的模型训练的方法实际上是一种通用的方法,可以应用于对诸如图像识别、语义分析、信息推荐等诸多业务领域中。
从上述方法可以看出,本方案在确定损失值时,不仅仅会根据与标签相匹配的候选处理结果对应的概率确定该损失值,还会根据与标签信息不匹配的目标结果以及对应的权重确定该损失值,这样一来,当样本数据的标签信息发生错误时,就可以提高其将数据识别为正确标签的概率,而目前的方法只会根据与标签信息相匹配的候选处理结果的概率来计算损失值,当标签信息发生错误时势必会提高模型将样本数据识别为错误标签的概率,从而影响模型的训练结果,相比于现有方法,本方案能够保证模型的训练效果,进而提高训练完成后的模型对数据识别的准确性。
需要进一步地说明的是,由于在风险识别领域中需要面对多种复杂且形式不同的信息,所以,实现风险识别的过程本身就有着极高的难度,因此,对风险识别领域中的风控模型进行训练所使用的样本中往往会存在标签错误的样本数据,如果不能有效地降低这些标签错误的样本数据在模型训练过程中所产生的不利影响,那么也将显著的影响后续风控模型在风险识别领域中的风控效果。
因此,本说明书提供的模型训练方法尤其适用于对风险识别领域中风控模型的训练,可以显著的降低标签错误的样本数据在模型训练过程中所产生的影响,保证了训练后的风控模型在风险识别领域中的风控效果,从而有效地实现了主动风险防控。
所以,在本说明书提供的模型训练方法中,输入到数据处理模型中的数据可以是指从风控业务中获取到的业务数据所构建出的训练样本,相应的,数据处理模型可以是指应用在风险识别领域中的风控模型。而数据处理模型输出的各候选处理结果可以是指模型预测出的用户可能遇到的各种风险类型,每个候选处理结果对应的概率则可以是指模型预测出的用户遇到该风险类型对应的概率。
具体的,在本说明书中,服务器可以采集一段时间内各用户在执行业务过程中所产生的业务数据,并将这些业务数据与各业务数据对应的标签信息对应进行保存。而后,服务器在启动模型训练任务时,可以读取出保存的这些业务数据,并将这些业务数据构建成样本数据。
服务器可以通过这些样本数据,采用上述方法对风控模型(即数据处理模型)进行模型训练。在完成模型训练任务后,服务器可以将训练后的风控模型进行部署,这样一来,当用户在执行业务过程中,服务器可以采集到用户在业务过程中产生的业务数据,即待处理数据。而后,服务器可以将该待处理数据输入到训练后的风控模型中,以确定出该用户在执行业务过程中所对应的风险类型,并根据确定出的风险类型,对该用户进行业务风控,从而保证用户在业务执行过程中的安全性。
以上为本说明书的一个或多个实施模型训练的方法,基于同样的思路,本说明书还提供了相应的模型训练的装置,如图2所示。
图2为本说明书提供的一种模型训练的装置的示意图,包括:
获取模块200,用于获取样本数据;
输入模块202,用于将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率;
第一确定模块204,用于从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果;
第二确定模块206,用于根据每个目标结果对应的概率,确定每个目标结果对应的权重;
训练模块208,用于根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
可选地,所述训练模块208具体用于,确定与所述标签信息相匹配的候选处理结果,作为命中结果;针对每个目标结果,根据该目标结果对应的权重,对该目标结果对应的概率进行加权,得到该目标结果对应的加权后概率,以及,根据所述命中结果对应的指定权重,对所述命中结果对应的概率进行加权,得到所述命中结果对应的加权后概率;根据每个目标结果对应的加权后概率,以及所述命中结果对应的加权后概率,确定所述损失值。
可选地,所述指定权重,大于每个目标结果对应的权重。
可选地,针对每个目标结果,该目标结果对应的概率与该目标结果对应的权重呈正相关关系。
可选地,所述第二确定模块206具体用于,针对每个目标结果,根据该目标结果对应的概率,确定该目标结果对应的初始权重;若确定各目标结果中存在结果类别上归属于该目标结果的目标结果,提高所述初始权重,以确定出该目标结果对应的权重。
可选地,所述训练模块具体用于,根据不同候选处理结果对应的概率,选取指定数量的候选处理结果;根据选取出的各候选处理结果对应的概率,以及选取出的各候选处理结果对应的权重,确定所述损失值。
可选地,所述装置还包括:
处理模块210,用于获取待处理数据;将所述待处理数据输入所述数据处理模型中,确定所述待处理数据对应的处理结果,并根据所述处理结果,进行业务风控,其中,所述数据处理模型通过上述模型训练的方法进行训练得到。
可选地,所述损失值包括:交叉熵损失的损失值。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种模型训练的方法。
本说明书还提供了图3所示的一种对应于图1的电子设备的示意结构图。如图3所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的模型训练的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (11)

1.一种模型训练的方法,包括:
获取样本数据;
将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率;
从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果;
根据每个目标结果对应的概率,确定每个目标结果对应的权重;
根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
2.如权利要求1所述的方法,根据每个候选处理结果对应的概率以及所述权重,确定损失值,具体包括:
确定与所述标签信息相匹配的候选处理结果,作为命中结果;
针对每个目标结果,根据该目标结果对应的权重,对该目标结果对应的概率进行加权,得到该目标结果对应的加权后概率,以及,根据所述命中结果对应的指定权重,对所述命中结果对应的概率进行加权,得到所述命中结果对应的加权后概率;
根据每个目标结果对应的加权后概率,以及所述命中结果对应的加权后概率,确定所述损失值。
3.如权利要求2所述的方法,所述指定权重,大于每个目标结果对应的权重。
4.如权利要求1所述的方法,针对每个目标结果,该目标结果对应的概率与该目标结果对应的权重呈正相关关系。
5.如权利要求1所述的方法,根据每个目标结果对应的概率,确定每个目标结果对应的权重,具体包括:
针对每个目标结果,根据该目标结果对应的概率,确定该目标结果对应的初始权重;
若确定各目标结果中存在结果类别上归属于该目标结果的目标结果,提高所述初始权重,以确定出该目标结果对应的权重。
6.如权利要求1所述的方法,根据每个候选处理结果对应的概率以及所述权重,确定损失值,具体包括:
根据不同候选处理结果对应的概率,选取指定数量的候选处理结果;
根据选取出的各候选处理结果对应的概率,以及选取出的各候选处理结果对应的权重,确定所述损失值。
7.如权利要求1所述的方法,所述方法还包括:
获取待处理数据;
将所述待处理数据输入所述数据处理模型中,确定所述待处理数据对应的处理结果,并根据所述处理结果,进行业务风控,其中,所述数据处理模型通过上述权利要求1~6任一项所述的方法进行训练得到。
8.如权利要求1所述的方法,所述损失值包括:交叉熵损失的损失值。
9.一种数据处理的装置,包括:
获取模块,获取样本数据;
输入模块,将所述样本数据输入待训练的数据处理模型中,得到各候选处理结果,以及每个候选处理结果对应的概率;
第一确定模块,从所述各候选处理结果中确定与所述样本数据对应的标签信息不匹配的目标结果;
第二确定模块,根据每个目标结果对应的概率,确定每个目标结果对应的权重;
训练模块,根据每个候选处理结果对应的概率以及所述权重,确定损失值,并根据所述损失值,对所述数据处理模型进行训练。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~8任一项所述的方法。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述权利要求1~8任一项所述的方法。
CN202211320460.3A 2022-10-26 2022-10-26 一种模型训练的方法、装置、存储介质及电子设备 Active CN115618964B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211320460.3A CN115618964B (zh) 2022-10-26 2022-10-26 一种模型训练的方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211320460.3A CN115618964B (zh) 2022-10-26 2022-10-26 一种模型训练的方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN115618964A true CN115618964A (zh) 2023-01-17
CN115618964B CN115618964B (zh) 2023-10-24

Family

ID=84865415

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211320460.3A Active CN115618964B (zh) 2022-10-26 2022-10-26 一种模型训练的方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN115618964B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502679A (zh) * 2023-05-15 2023-07-28 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN117666971A (zh) * 2024-01-31 2024-03-08 之江实验室 一种工业领域的数据存储方法、装置及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418327A (zh) * 2020-11-25 2021-02-26 Oppo广东移动通信有限公司 图像分类模型的训练方法、装置、电子设备以及存储介质
CN114332873A (zh) * 2021-12-22 2022-04-12 北京三快在线科技有限公司 一种识别模型的训练方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418327A (zh) * 2020-11-25 2021-02-26 Oppo广东移动通信有限公司 图像分类模型的训练方法、装置、电子设备以及存储介质
CN114332873A (zh) * 2021-12-22 2022-04-12 北京三快在线科技有限公司 一种识别模型的训练方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502679A (zh) * 2023-05-15 2023-07-28 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN116502679B (zh) * 2023-05-15 2023-09-05 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN117666971A (zh) * 2024-01-31 2024-03-08 之江实验室 一种工业领域的数据存储方法、装置及设备
CN117666971B (zh) * 2024-01-31 2024-04-30 之江实验室 一种工业领域的数据存储方法、装置及设备

Also Published As

Publication number Publication date
CN115618964B (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN115618964A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN110008991B (zh) 风险事件的识别、风险识别模型的生成方法、装置、设备及介质
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN115545002B (zh) 一种模型训练和业务处理的方法、装置、存储介质及设备
CN114332873A (zh) 一种识别模型的训练方法及装置
CN115712866A (zh) 数据处理方法、装置及设备
CN114943307A (zh) 一种模型训练的方法、装置、存储介质以及电子设备
CN110033092B (zh) 数据标签生成、模型训练、事件识别方法和装置
CN113988162A (zh) 模型训练及图像识别方法、装置、存储介质及电子设备
CN116308738B (zh) 一种模型训练的方法、业务风控的方法及装置
CN112597459A (zh) 一种身份验证方法及装置
CN115567371B (zh) 一种异常检测方法、装置、设备及可读存储介质
CN116824331A (zh) 一种模型训练、图像识别方法、装置、设备及存储介质
CN115204395A (zh) 数据的处理方法、装置及设备
CN115618237A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN115130621A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN115221523A (zh) 数据处理方法、装置及设备
CN114926437A (zh) 一种图像质量评价方法及装置
CN111242195B (zh) 模型、保险风控模型训练方法、装置及电子设备
CN113344590A (zh) 一种模型训练以及投诉率预估的方法及装置
CN113344197A (zh) 一种识别模型的训练方法、业务执行的方法以及装置
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置
CN112115952B (zh) 一种基于全卷积神经网络的图像分类方法、设备及介质
CN117746193B (zh) 一种标签优化方法、装置、存储介质及电子设备
CN117668543A (zh) 一种模型训练方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant