CN112598118B - 有监督学习的标注异常处理方法、装置、存储介质及设备 - Google Patents

有监督学习的标注异常处理方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN112598118B
CN112598118B CN202110234096.8A CN202110234096A CN112598118B CN 112598118 B CN112598118 B CN 112598118B CN 202110234096 A CN202110234096 A CN 202110234096A CN 112598118 B CN112598118 B CN 112598118B
Authority
CN
China
Prior art keywords
meta
model
current
gradient
sample set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110234096.8A
Other languages
English (en)
Other versions
CN112598118A (zh
Inventor
张翀
江岭
黄鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Xiaoduo Technology Co ltd
Original Assignee
Chengdu Xiaoduo Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Xiaoduo Technology Co ltd filed Critical Chengdu Xiaoduo Technology Co ltd
Priority to CN202110234096.8A priority Critical patent/CN112598118B/zh
Publication of CN112598118A publication Critical patent/CN112598118A/zh
Application granted granted Critical
Publication of CN112598118B publication Critical patent/CN112598118B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种有监督学习的标注异常处理方法、装置、存储介质及设备,方法应用于深度学习的训练系统,方法包括:S11:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,N为大于0的整数;S12:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;其中,第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得;S13:判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于所述样本集中的新的第一样本子集重复S11和S12,以提高目标模型的通用性和准确性。

Description

有监督学习的标注异常处理方法、装置、存储介质及设备
技术领域
本申请涉及深度学习技术领域,具体而言,涉及一种有监督学习的标注异常处理方法、装置、存储介质及设备。
背景技术
深度学习技术广泛的实际应用到现实生活中,如人脸识别、语音识别和智能客服等方面。深度学习模型通常由一组神经网络构成,在应用之前都需要经过训练系统进行样本训练,以提高学习的准确性。基于是否需要提前对训练样本打上标签,可以将训练过程分为有监督训练和无监督训练,有监督的训练需要提前准备好打上类别标签的样本,如一张图片属于“水果”还是“动物”。
基于深度学习的训练系统采用梯度下降法更新模型参数,训练过程中从样本集每次取一小批样本出来训练更新参数,每一批样本数量可以是数个样本也可以是数千个,直到取完所有样本算完成一轮训练,训练过程中往往需要重复多轮训练,直到没办法朝着梯度下降的方向更新参数。现有技术中,难以避免出现错误的样本标注,这种标注异常的样本会使得模型做出较大的参数调整以适应该样本,从而降低模型对标注正常的样本预测的置信度,因此需要降低标注异常的样本对模型的影响。
发明内容
本申请的目的在于提供一种有监督学习的标注异常处理方法、装置、存储介质及设备,用以有效的改善现有技术解决标注异常中存在的通用性差和准确率不高的技术缺陷。
第一方面,本申请实施例提供了一种有监督学习的标注异常处理方法,方法应用于深度学习的训练系统,方法由电子设备执行,方法包括以下步骤:S11:基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,所述第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;S12:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;S13:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型; S14:判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11、S12和S13。
在上述实现过程中,采用元模型作为目标模型,在训练过程中使用基于样本集中的多个第二样本子集训练获得多个分类模型,在这个训练过程中不能直接更新目标模型参数,从而,样本集中即使存在标注异常的样本也无法直接影响目标模型的参数,减少训练系统存在的异常波动问题;使用基于样本集中的一个第一样本子集在多个分类模型上计算下降梯度,再综合所有分类模型上的下降梯度获得综合梯度,根据获得的综合梯度更新元模型后获得目标模型,使用综合梯度的方式更新元模型的参数,最大程度消除了异常样本对目标模型的影响。
结合第一方面,在第一种可能的实现方式中,步骤S13中,基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型,具体包括:从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建当前第一元训练装置;当前第一元训练装置分别对当前对应的每个分类模型计算梯度,获得当前每个分类模型对应的第一下降梯度;根据当前所有的第一下降梯度,确定出当前的综合梯度,并使用当前的综合梯度对第一元模型朝着梯度下降的方向更新参数,将更新后的元模型确定为第二元模型。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,根据当前所有的第一下降梯度,确定出当前的综合梯度,包括:获得当前所有的第一下降梯度;使用加法、求均值或非加法中的任一种方式对当前所有的第一下降梯度进行梯度综合,确定出当前的综合梯度。
结合第一方面,在第三种可能的实现方式中,S14中,判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11、S12和S13,具体包括:获得当前综合梯度,判断当前综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,将当前的第二元模型更新确定成为新的第一元模型,并使用样本集中的新的第一样本子集构建新的第一元训练装置以重复S11、S12和S13。
结合第一方面,在第四种可能的实现方式中,在S14之后,方法还包括:使用目标模型对未知样本集预测对应的标签,检验目标模型的准确性,其中,未知样本集用于表示未参与训练系统中的训练过程的样本集。
第二方面,本申请实施例提供了一种有监督学习的标注异常处理装置,装置包括:获得模块,用于基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;计算模块,用于基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度,其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;运算模块,用于基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,将更新后获得的元模型确定为第二元模型;判断模块,用于判断综合梯度的值是否不再下降;第一处理模块,用于在综合梯度的值不再下降时,将当前的第二元模型确定为目标模型;第二处理模块,用于在综合梯度的值下降时,基于样本集中的新的第一样本子集重复执行获得模块、计算模块和运算模块所执行的步骤。
第三方面,本申请实施例提供了一种存储介质,存储介质上存储有计算机程序,计算机程序被计算机运行时执行第一方面及第一方面任一种可能的实现方式提供的有监督学习的标注异常处理方法。
第四方面,本申请实施例提供了一种电子设备,电子设备包括:处理器、通信总线、通信接口以及存储器;通信总线分别连接处理器、通信接口和存储器;存储器存储有计算机可读取指令,当处理器执行可读取指令时,运行如第一方面及第一方面任一种可能的实现方式提供的有监督学习的标注异常处理方法。
与现有技术相比,本发明的有益效果为:一方面,本申请使用元模型作为目标模型,在训练中样本使用不同的样本更新对应的目标模型的副本,通过这样的新型训练结构使得训练过程中每一批样本不能直接更新目标模型参数,从而,样本集中即使存在标注异常的样本也无法直接影响目标模型的参数,减少训练系统存在的异常波动问题,提高目标模型的准确性。另一方面,本申请解决的是标注异常的异常样本带来的问题,与样本集的领域以及具体的神经网络模型架构无关,从而适用于有监督学习模式下的任何领域和任何架构的神经网络模型,获得的目标模型的通用性高。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种设备的结构框图;
图2为本申请实施例提供的一种有监督学习的标注异常处理方法的流程示意图;
图3为本申请实施例提供的一种有监督学习的标注异常处理方法的另一示例性流程示意图;
图4为本申请实施例提供的一种有监督学习的标注异常处理装置的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参阅图1,本申请一些可能的实施例提供了一种电子设备10。电子设备10可以为个人电脑(Personal Computer,PC)、平板电脑、智能手机、个人数字助理(PersonalDigital Assistant,PDA)等,或电子设备10可以为网络服务器、数据库服务器、云服务器或由多个子服务器构成的服务器集成等。
进一步地,电子设备10可以包括:存储器111、通信接口112、通信总线113和处理器114,其中,处理器114、通信接口112和存储器111通过通信总线113连接。处理器114用于执行存储器111中存储的可执行模块,例如计算机程序。图1所示的电子设备10的组件和结构只是示例性的,而非限制性的,根据需要,电子设备10也可以具有其他组件和结构。
其中,存储器111可能包含高速随机存取存储器(Random Access Memory RAM),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。
通信总线113可以是ISA总线((Industry Standard Architecture,工业标准体系结构)、PCI总线(Peripheral Component Interconnect,外设部件互连标准)或EISA总线(Extended Industry Standard Architecture,扩展工业标准结构)等。通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图1中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器114可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器114中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器114可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcess ,DSP)、专用集成电路(Application SpecificIntegrated Circuit ,ASIC)、现场可编程门阵列(Field Programmable Gate Array ,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。
本发明实施例定义的装置所执行的方法可以应用于处理器114中,或者由处理器114实现。处理器114可以通过与电子设备10中其它模块或者元器件配合,从而执行有监督学习的标注异常处理方法。下面将对有监督学习的标注异常处理方法的执行进行详细地说明。
请参阅图2和图3,本申请一些可能的实施例提供了一种有监督学习的标注异常处理方法。该有监督学习的标注异常处理方法可以由设备执行,方法包括:S11、S12、S13和S14。
S11:基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,所述第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;
S12:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;
S13:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;
S14:判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11、S12和S13。
下面对该有监督学习的标注异常处理方法的执行流程做详细的说明。
在本申请实施例中,有监督学习是基于深度学习提出的一种方法,是从标签化训练数据集中推断出函数的机器学习任务,即需要提前准备具有类别标签的样本集,经过训练系统进行具有类别标签的样本训练,得到更新后的模型。而标注错误的异常样本或者差异性较大的样本会给模型学习过程中带来收敛的异常波动,导致梯度下降朝错误的方向更新参数,因此,需要让模型不要过度关注异常样本,基于此,提出本申请实施例中的有监督学习的标注异常处理方法。
S11:基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,所述第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数。
详细地,元训练装置是基于训练过程的样本集进行训练的一个装置,其中,该样本集中的每个样本包括进行样本的特征和与该样本对应的标签其中,样本可以是图片、文本、语义或者视频,标签可以为样本所对应的类别。元训练装置的作用是使用梯度下降对模型更新参数,具体地,元训练装置的训练流程为:每个样本经过元训练装置中的特征处理装置提取出每个样本对应的特征,再将该样本对应的标签和该样本的特征分别输入至机器学习算法装置中进行学习,从而获得可以将样本的特征映射到对应标签的模型。
由于训练过程是每次从样本集取一小批样本出来训练更新参数,每一批样本数量可以是数个样本也可以是数千个样本,直到将该样本集中所有的样本取完表示完成一轮训练,训练过程中往往需要重复多轮训练。因此,在本申请实施例中,将样本集按照采样方式的不同可以分别将样本集划分成若干个第一样本子集或若干个第二样本子集,每次训练使用一个第一样本子集或者第二样本子集进行训练。第一元训练装置是基于样本集中的第一样本子集构建,第二元训练装置是基于样本集中的第二样本子集构建,第一样本子集与第二样本子集不同。
需要说明的是,本申请实施例定义了一种元模型,从而构建随机初始化的神经网络模型,其具体的内部结构可以为BERT、BI-LSTM或者CNN神经网络。元模型构建了一个基础模型,确定了模型的基本构架,再通过样本训练更新模型中的参数,获得目标模型。在本申请实施例中,训练过程中使用的元模型都是基于预先定义的元模型架构,即获得的分类模型以及目标模型中的架构均与预先定义的元模型架构一致,而具体参数不同。
作为一种可能的实施方式,样本集包括若干个第二样本子集,通过若干个第二样本子集构建出L个第二元训练装置,L为大于0的整数。每个第二元训练装置的差别在于各个第二元训练装置之间的样本和标签不同,其结构一致,L的具体数值与样本集大小以及运行方法的硬件装置相关。由于分类任务中的样本提前标注好标签,标签确定样本的所属类别,因此,可以基于样本类别分布的差异对不同的第二元训练装置采用不同的第二样本子集进行训练。作为一种可能的实现方式,所有第二元训练装置训练用的样本类别分布是一样的;作为另一种可能的实现方式,每个第二元训练装置训练用的样本类别分布是有差异。
可选地,可以基于样本类别分布的维度,在每个第二元训练装置对应的第二样本子集的选择上,选择每个第二样本子集的样本类别分布维度差异尽可能大的,以学习到多个领域中对应的知识,提高学习的准确率。
使用L个第二元训练装置分别对对应的第一元模型副本利用梯度下降更新参数,为了便于理解,可以将一个第二元训练装置理解为现实中的一个专家,利用第二元训练装置和第二样本子集对对应的第一元模型副本进行学习训练,是为了使得该专家学习对应领域的知识,L个第二元训练装置则表示各个专家学习各个对应领域的知识。
在样本集中的若干个第二样本子集构建出L个第二元训练装置的基础上,将预先定义的元模型确定为当前的第一元模型,基于当前第一元模型拷贝构建M个第一元模型副本,第一元模型与第一元模型副本参数结构一致;使用每个第二元训练装置,分别对对应的第一元模型副本利用梯度下降更新参数,从而获得N个更新参数后的分类模型,其中,L、M和N的数值相同。
与现有技术中的先识别异常样本再处理的方式,本申请实施例中的通过将元模型作为目标模型,并在训练中样本将首先使用不同数据分别更新其对应的元模型副本的这种方式,与具体的领域或者使用的具体模型架构无关,即适用于有监督训练模式下任何领域,也适用于任何结构的神经网络模型。
S12:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得。
详细地,从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建当前第一元训练装置;当前第一元训练装置分别对当前对应的每个分类模型计算梯度,获得当前每个分类模型对应的第一下降梯度;根据当前所有的第一下降梯度,确定出当前的综合梯度,并使用当前的综合梯度对第一元模型朝着梯度下降的方向更新参数,将更新后的元模型确定为第二元模型。
需要说明的是,从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建第一元训练装置;第一元训练装置与第二元训练装置的内部结构一致,区别在于训练第一训练装置使用的第一样本子集是重新从样本集中采样的一批,与第二样本子集不同。
S13:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型。
使用第一元训练装置分别对每个分类模型计算一次梯度,获得当前每个分类模型对应的第一下降梯度。使用加法、求均值或非加法中的任一种方式对当前所有的第一下降梯度进行综合梯度,确定出当前的综合梯度。使用梯度综合法是将N个分类模型的当前梯度进行综合,获得一个综合梯度。梯度综合法是为了综合不同第二元训练装置学到的知识,降低异常知识的影响,类似盲人摸象,综合所有人意见。
为了便于理解,梯度综合下降方式可以理解为针对某事做出决定之前,参考多个专家对此事的看法,然后综合所有意见做出最优决策。在本申请实施例中,综合了L个第二元训练装置对同一批样本数据的梯度结果。可选地,也可以使用求均值的方法以综合梯度。
使用通过综合计算获得的当前综合梯度对第一元模型朝着梯度下降的方向进行参数更新,从而获得新的第一元模型,并将获得的新的第一元模型确定为第二元模型。
通过使用第一元训练装置分别计算N个分类模型中每个分类模型对应的第一下降梯度,第一元模型朝着基于第一下降梯度确定出的综合梯度对应的下降方向更新参数,将新的第一元模型确定为第二元模型,其中,每个分类模型基于第一元模型副本进行参数更新获得的。通过这样的方式,一方面,可以使得训练过程中每一批样本子集不能直接更新目标模型的参数,从而使得某一批样本子集中存在异常样本,也无法直接影响目标模型的参数;另一方面,后续过程中获得多个更新参数后的第一元模型副本,然后再使用新的一批第一样本子集在这些更新参数后的第一元模型副本上计算梯度,每个第一元模型副本将得到一个梯度,综合所有的梯度后才开始真正更新第一元模型参数,这样可以最大限度消除了偶然的异常样本对目标模型带来的影响。
S14:判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11、S12和S13。
详细地,获得当前综合梯度,判断当前综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型。当综合梯度不再下降时,说明当前经过多次的迭代计算,已经达到收敛,接近最优值。
计算当前综合梯度与当前综合梯度相邻的上一次综合梯度相比,判断是否不再下降。若是,说明第二元模型无法朝着梯度下降的方向更新参数,则将当前的第二元模型确定为目标模型;若否,使用新的第一样本子集训练,获得新的第一元训练装置,并将当前的第二元模型确定为新的第一元模型,基于新的第一元模型拷贝构建新的第一元模型副本,每个第二元训练装置分别对对应的新的第一元模型副本利用梯度下降更新参数,获得新的N个分类模型,再使用新的第一元训练装置分别对N个分类模型计算一次梯度,然后获得新的综合梯度,使用新的综合梯度对新的第一元模型朝着梯度下降的方向进行参数更新,得到新的第二元模型。该过程为一个迭代更新的过程,使得模型朝着梯度下降的方向进行参数更新,直至综合梯度不再下降即当前综合梯度足够收敛,停止更新参数。
作为另一种可能的实施方式,获得当前综合梯度和与当前综合梯度相邻的上一次的综合梯度,将两者之间的差值确定为第一差值;判断第一差值是否小于预设阈值,若是,将当前的第二元模型确定为目标模型;若否,将当前的第二元模型确定为新的第一元模型,并使用样本集中的另一第一样本子集构建新的第一元训练装置以重复S11、S12和S13。
作为另一种可能的实施方式,通过预先设置预设迭代总次数,当迭代总次数达到预设迭代总次数时,停止迭代,该方法的执行流程结束。
作为一种可能的实施方式,有监督学习的标注异常处理方法还包括:使用目标模型对未知样本集预测对应的标签,检验目标模型的准确性,其中,未知样本集用于表示未参与训练系统中的训练过程的样本集。通过梯度下降方法获得训练好的目标模型,可以对未知样本预测对应标签,从而校验目标模型的准确性。
一方面,通过本申请实施例中的技术方案,可以处理各个领域的样本训练过程中异常样本对目标模型的波动影响,即与具体的领域无关,也与具体的模型架构无关。通过直接改进训练系统解决异常样本带来的问题,适用于有监督学习训练模式下的任何领域,也适用于任何结构的神经网络模型。另一方面,无需额外标注异常样本,也不需训练异常样本识别模型,降低成本,提升了效率。
请参阅图4,本申请实施例提供了一种有监督学习的标注异常处理装置20,装置20包括:
获得模块210,用于基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;
计算模块220,用于基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度,其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;
运算模块230,用于基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,将更新后获得的元模型确定为第二元模型;
判断模块240,用于判断综合梯度的值是否不再下降;
第一处理模块250,用于在综合梯度的值不再下降时,将当前的第二元模型确定为目标模型;
第二处理模块260,用于在综合梯度的值下降时,基于样本集中的新的第一样本子集重复执行计算模块和运算模块所执行的步骤。
综上所述,本申请实施例提供一种有监督学习的标注异常处理方法,方法应用于深度学习的训练系统,方法包括以下步骤:S11:基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,所述第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;S12:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;S13:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;S14:判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11、S12和S13。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种有监督学习的标注异常处理方法,所述方法应用于深度学习的训练系统,所述方法由电子设备执行,其特征在于,所述方法包括以下步骤:
S11:基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,所述第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,所述样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;
S12:基于所述样本集中的第一样本子集构建的第一元训练装置分别计算当前N个所述分类模型中每个所述分类模型对应的第一下降梯度;其中,所述第一样本子集与所述第二样本子集为在所述样本集的基础上采用不同的采样方式分别获得;
S13:基于当前N个所述第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;
S14:判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;
若否,基于所述样本集中的新的第一样本子集重复S11、S12和S13。
2.根据权利要求1所述的有监督学习的标注异常处理方法,其特征在于,所述S13中,基于当前N个所述第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型,具体包括:
从所述样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建当前第一元训练装置;
当前所述第一元训练装置分别对当前对应的每个分类模型计算梯度,获得当前每个分类模型对应的第一下降梯度;
根据当前所有的第一下降梯度,确定出当前的综合梯度,并使用当前的综合梯度对第一元模型朝着梯度下降的方向更新参数,将更新后的元模型确定为第二元模型。
3.根据权利要求2所述的有监督学习的标注异常处理方法,其特征在于,所述根据当前所有的第一下降梯度,确定出当前的综合梯度,包括:
获得当前所有的第一下降梯度;
使用加法、求均值或非加法中的任一种方式对当前所有的第一下降梯度进行梯度综合,确定出当前的综合梯度。
4.根据权利要求1所述的有监督学习的标注异常处理方法,其特征在于,所述S14中,判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于所述样本集中的新的第一样本子集重复S11、S12和S13,具体包括:
获得当前综合梯度,判断当前综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;
若否,将当前的第二元模型更新确定成为新的第一元模型,并使用所述样本集中的新的第一样本子集构建新的第一元训练装置以重复所述S11、所述S12和所述S13。
5.根据权利要求1所述的有监督学习的标注异常处理方法,其特征在于,在所述S14之后,所述方法还包括:
使用所述目标模型对未知样本集预测对应的标签,检验所述目标模型的准确性,其中,所述未知样本集用于表示未参与训练系统中的训练过程的样本集。
6.一种有监督学习的标注异常处理装置,其特征在于,所述装置包括:
获得模块,用于基于样本集中的若干个第二样本子集构建出L个第二元训练装置;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个,其中,样本集为图像数据样本集、文本数据样本集、语义数据样本集或者视频样本集中的任一种,L、M和N均为大于0的整数,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于对元模型进行更新参数;
计算模块,用于基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个所述分类模型对应的第一下降梯度,其中,第一样本子集与第二样本子集为在样本集的基础上采用不同的采样方式分别获得;
运算模块,用于基于当前N个所述第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,将更新后获得的元模型确定为第二元模型;
判断模块,用于判断所述综合梯度的值是否不再下降;
第一处理模块,用于在所述综合梯度的值不再下降时,将当前的第二元模型确定为目标模型;
第二处理模块,用于在所述综合梯度的值下降时,基于所述样本集中的新的第一样本子集重复执行所述获得模块、所述计算模块和所述运算模块所执行的步骤。
7.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被计算机运行时执行如权利要求1-5任一项所述的有监督学习的标注异常处理方法。
8.一种电子设备,其特征在于,所述电子设备包括:处理器、通信总线、通信接口以及存储器;
所述通信总线分别连接所述处理器、所述通信接口和所述存储器;
所述存储器存储有计算机可读取指令,当所述处理器执行可读取指令时,运行如权利要求1-5中任一项所述的有监督学习的标注异常处理方法。
CN202110234096.8A 2021-03-03 2021-03-03 有监督学习的标注异常处理方法、装置、存储介质及设备 Active CN112598118B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110234096.8A CN112598118B (zh) 2021-03-03 2021-03-03 有监督学习的标注异常处理方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110234096.8A CN112598118B (zh) 2021-03-03 2021-03-03 有监督学习的标注异常处理方法、装置、存储介质及设备

Publications (2)

Publication Number Publication Date
CN112598118A CN112598118A (zh) 2021-04-02
CN112598118B true CN112598118B (zh) 2021-06-25

Family

ID=75210145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110234096.8A Active CN112598118B (zh) 2021-03-03 2021-03-03 有监督学习的标注异常处理方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN112598118B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035751A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的数据并行处理方法及装置
CN104463324A (zh) * 2014-11-21 2015-03-25 长沙马沙电子科技有限公司 一种基于大规模高性能集群的卷积神经网络并行处理方法
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106297774A (zh) * 2015-05-29 2017-01-04 中国科学院声学研究所 一种神经网络声学模型的分布式并行训练方法及系统
CN110998608A (zh) * 2017-07-18 2020-04-10 世界线公司 用于各种计算机应用程序的机器学习系统
CN111052155A (zh) * 2017-09-04 2020-04-21 华为技术有限公司 异步梯度平均的分布式随机梯度下降法
CN111858058A (zh) * 2020-07-24 2020-10-30 成都成信高科信息技术有限公司 基于并行计算的sgd负载均衡方法、装置及存储介质
CN111899254A (zh) * 2020-08-12 2020-11-06 华中科技大学 基于半监督学习自动标注工业产品外观缺陷图像的方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8407160B2 (en) * 2006-11-15 2013-03-26 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for generating sanitized data, sanitizing anomaly detection models, and/or generating sanitized anomaly detection models
AU2017283549A1 (en) * 2016-06-13 2019-01-24 Xevo Inc. Method and system for providing behavior of vehicle operator using virtuous cycle
CN109033976B (zh) * 2018-06-27 2022-05-20 北京中科天合科技有限公司 异常肌肉检测方法和系统
CN109241418B (zh) * 2018-08-22 2024-04-09 中国平安人寿保险股份有限公司 基于随机森林的异常用户识别方法及装置、设备、介质
CN111611486B (zh) * 2020-05-15 2021-03-26 北京博海迪信息科技有限公司 基于在线教育大数据的深度学习样本标注方法
CN112116002A (zh) * 2020-09-18 2020-12-22 北京旋极信息技术股份有限公司 一种检测模型的确定方法、验证方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035751A (zh) * 2014-06-20 2014-09-10 深圳市腾讯计算机系统有限公司 基于多图形处理器的数据并行处理方法及装置
CN104463324A (zh) * 2014-11-21 2015-03-25 长沙马沙电子科技有限公司 一种基于大规模高性能集群的卷积神经网络并行处理方法
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106297774A (zh) * 2015-05-29 2017-01-04 中国科学院声学研究所 一种神经网络声学模型的分布式并行训练方法及系统
CN110998608A (zh) * 2017-07-18 2020-04-10 世界线公司 用于各种计算机应用程序的机器学习系统
CN111052155A (zh) * 2017-09-04 2020-04-21 华为技术有限公司 异步梯度平均的分布式随机梯度下降法
CN111858058A (zh) * 2020-07-24 2020-10-30 成都成信高科信息技术有限公司 基于并行计算的sgd负载均衡方法、装置及存储介质
CN111899254A (zh) * 2020-08-12 2020-11-06 华中科技大学 基于半监督学习自动标注工业产品外观缺陷图像的方法

Also Published As

Publication number Publication date
CN112598118A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN107391369B (zh) 一种基于数据筛选和数据过采样的跨项目缺陷预测方法
CN111898739B (zh) 基于元学习的数据筛选模型构建方法、数据筛选方法、装置、计算机设备及存储介质
CN111309539A (zh) 一种异常监测方法、装置和电子设备
CN111898129B (zh) 基于Two-Head异常检测模型的恶意代码样本筛选器及方法
CN112765003B (zh) 一种基于app行为日志的风险预测方法
CN116451139B (zh) 一种基于人工智能的直播数据快速分析方法
CN117041017B (zh) 数据中心的智能运维管理方法及系统
US20210081800A1 (en) Method, device and medium for diagnosing and optimizing data analysis system
CN113723861A (zh) 异常用电行为检测方法、装置、计算机设备和存储介质
CN115294397A (zh) 一种分类任务的后处理方法、装置、设备及存储介质
CN114781532A (zh) 机器学习模型的评估方法、装置、计算机设备及介质
CN112888008A (zh) 基站异常检测方法、装置、设备及存储介质
CN112598118B (zh) 有监督学习的标注异常处理方法、装置、存储介质及设备
WO2020088338A1 (zh) 一种建立识别模型的方法及装置
US20220230028A1 (en) Determination method, non-transitory computer-readable storage medium, and information processing device
CN113541985A (zh) 物联网故障诊断方法、模型的训练方法及相关装置
CN116361788A (zh) 一种基于机器学习的二进制软件漏洞预测方法
CN112861962B (zh) 样本处理方法、装置、电子设备和存储介质
CN113935034A (zh) 基于图神经网络的恶意代码家族分类方法、装置和存储介质
WO2021075009A1 (ja) 学習装置、推定装置、学習方法及び学習プログラム
CN114971110A (zh) 一种根因组合确定的方法、相关装置、设备以及存储介质
CN112463964A (zh) 文本分类及模型训练方法、装置、设备及存储介质
JP6611268B2 (ja) 特定装置、分析システム、特定方法及び特定プログラム
CN114237915B (zh) 分布式环境下基于机器学习的数据修复方法、装置及设备
CN114969738B (zh) 一种接口异常行为监测方法、系统、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant