CN113326857B - 模型训练方法及装置 - Google Patents

模型训练方法及装置 Download PDF

Info

Publication number
CN113326857B
CN113326857B CN202010127972.2A CN202010127972A CN113326857B CN 113326857 B CN113326857 B CN 113326857B CN 202010127972 A CN202010127972 A CN 202010127972A CN 113326857 B CN113326857 B CN 113326857B
Authority
CN
China
Prior art keywords
samples
training
sample
norm
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010127972.2A
Other languages
English (en)
Other versions
CN113326857A (zh
Inventor
程阵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Meyer Optoelectronic Technology Inc
Original Assignee
Hefei Meyer Optoelectronic Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Meyer Optoelectronic Technology Inc filed Critical Hefei Meyer Optoelectronic Technology Inc
Priority to CN202010127972.2A priority Critical patent/CN113326857B/zh
Publication of CN113326857A publication Critical patent/CN113326857A/zh
Application granted granted Critical
Publication of CN113326857B publication Critical patent/CN113326857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种模型训练方法及装置,其中,方法包括:获取样本集合,并对样本集合进行分类以形成多个分类样本集合;获取每个分类样本集合之中每个样本的范数值;根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合;根据第一训练集合对模型进行训练。根据本发明实施例的模型训练方法,通过从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程。

Description

模型训练方法及装置
技术领域
本发明涉及计算机技术领域,特别涉及一种模型训练方法及装置。
背景技术
相关技术中,深度学习训练步骤一般是手动将所获取样本分为训练集及测试集,再进行训练以及测试,并且样本集分配方法一般通过概率随机进行分配,如深度学习训练可以为神经网络模型的训练,具体如卷积神经网络模型。
然而,相关技术中的分配方法并没有考虑样本集内部之间关系,会造成训练样本分配不合理,造成训练出来模型的分类性能及鲁棒性达不到最佳,如在深度学习的多种分类应用中,类间样本不均衡会影响分类性能,分类结果一般偏向样本多的一类,样本少的一类的分类性能会受到影响。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种模型训练方法,,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,并且通过自动分配训练样本及无监督训练方式,以及样本分配与训练相互反馈的方式,有效保证了样本的合理性及均衡性,从而使得训练出模型的达到最优,进而大大提高训练模型的分类性能。
本发明的第二个目的在于提出一种模型训练装置。
为达到上述目的,本发明第一方面实施例提出了一种模型训练方法,包括:获取样本集合,并对所述样本集合进行分类以形成多个分类样本集合;获取每个所述分类样本集合之中每个样本的范数值;根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,以形成第一训练集合;根据所述第一训练集合对所述模型进行训练。
另外,根据本发明上述实施例的模型训练方法还可以具有如下附加的技术特征:
根据本发明的一个实施例,所述获取每个所述分类样本集合之中每个样本的范数值,包括:获取所述每个分类样本集合之中每个样本对应的像素点的加权平均值,以及根据所述每个分类样本集合之中每个样本对应的像素点的加权平均值计算所述每个样本的范数值。
根据本发明的一个实施例,在所述根据所述第一训练集合对所述模型进行训练之后,还包括:根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除;判断所述每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足所述预设条件,则根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,并将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合;根据更新后的所述第一训练集合对所述模型进行训练;返回执行所述根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至所述剩余样本数量满足所述预设条件。
根据本发明的一个实施例,所述根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,包括:针对每个所述分类样本集合,在所述样本的范数值大于或等于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从小到大的顺序抽取a个样本,并在所述样本的范数值小于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
根据本发明的一个实施例,所述将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合,包括:将抽取到的样本加入所述第一训练集合,并确定是否存在本次未抽取到m个样本的目标样本类别;如果存在,则从所述第一训练集合中的属于所述目标样本类别且所述样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,从所述第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,所述第一预设数量和所述第二预设数量的和为m;根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入所述第一训练集合,以更新所述第一训练集合。
根据本发明的一个实施例,上述的模型训练方法,还包括:如果满足所述预设条件,则将所述剩余样本均加入所述第一训练集合以更新所述第一训练集合,并根据更新后的所述第一训练集合对所述模型进行训练。
根据本发明的一个实施例,所述将所述剩余样本均加入所述第一训练集合,以更新所述第一训练集合,包括:将所述剩余样本均加入所述第一训练集合,并针对所述第一训练集合中的每一类样本,将所述样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将所述样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新所述第一训练集合,使得所述第一训练集合中的每一类样本的数量达到样本目标数量。
根据本发明的一个实施例,所述模型训练的终止条件由召回率和训练次数确定,其中,通过下述公式得到所述召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为所述召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量。
根据本发明实施例的模型训练方法,可以获取样本集合,并对样本集合进行分类以形成多个分类样本集合,并获取每个分类样本集合之中每个样本的范数值,并根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合,以及根据第一训练集合对模型进行训练。由此,由此,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的合理性和均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程,也就是说,本发明实施例可以通过自动分配训练样本、无监督训练和训练相互反馈的方式,有效保证样本的合理性及均衡性,从而使得训练出模型的达到最优,进而大大提高训练模型的分类性能。
为达到上述目的,本发明第二方面实施例提出了一种模型训练装置,包括:分类模块,用于获取样本集合,并对所述样本集合进行分类以形成多个分类样本集合;获取模块,用于获取每个所述分类样本集合之中每个样本的范数值;抽取训练模块,用于根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,以形成第一训练集合;并根据所述第一训练集合对所述模型进行训练。
根据本发明的一个实施例,所述获取模块,具体用于:获取所述每个分类样本集合之中每个样本对应的像素点的加权平均值,以及根据所述每个分类样本集合之中每个样本对应的像素点的加权平均值计算所述每个样本的范数值。
根据本发明的一个实施例,在所述根据所述第一训练集合对所述模型进行训练之后,所述抽取训练模块还用于:根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除;判断所述每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足所述预设条件,则根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,并将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合;根据更新后的所述第一训练集合对所述模型进行训练;返回执行所述根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至所述剩余样本数量满足所述预设条件。
根据本发明的一个实施例,所述抽取训练模块还用于:针对每个所述分类样本集合,在所述样本的范数值大于或等于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从小到大的顺序抽取a个样本,并在所述样本的范数值小于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
根据本发明的一个实施例,所述抽取训练模块,还用于:将抽取到的样本加入所述第一训练集合,并确定是否存在本次未抽取到m个样本的目标样本类别;如果存在,则从所述第一训练集合中的属于所述目标样本类别且所述样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,从所述第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,所述第一预设数量和所述第二预设数量的和为m;根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入所述第一训练集合,以更新所述第一训练集合。
根据本发明的一个实施例,上述的模型训练装置,所述抽取训练模块还用于:
在满足所述预设条件时,将所述剩余样本均加入所述第一训练集合以更新所述第一训练集合,并根据更新后的所述第一训练集合对所述模型进行训练。
根据本发明的一个实施例,所述所述抽取训练模块还用于:
将所述剩余样本均加入所述第一训练集合,并针对所述第一训练集合中的每一类样本,将所述样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将所述样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新所述第一训练集合,使得所述第一训练集合中的每一类样本的数量达到样本目标数量。
根据本发明的一个实施例,所述模型训练的终止条件由召回率和训练次数确定,其中,通过下述公式得到所述召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为所述召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量。
根据本发明实施例的模型训练装置,可以通过分类模块获取样本集合,并对样本集合进行分类以形成多个分类样本集合,并通过获取模块获取每个分类样本集合之中每个样本的范数值,并通过抽取训练模块根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合,并根据第一训练集合对模型进行训练。由此,由此,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的合理性和均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程,也就是说,本发明实施例可以通过自动分配训练样本、无监督训练和训练相互反馈的方式,有效保证样本的合理性及均衡性,从而使得训练出模型的达到最优,进而大大提高训练模型的分类性能。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是根据本发明实施例的模型训练方法的流程图;
图2是根据本发明一个实施例的模型训练方法的流程图;
图3是根据本发明实施例的模型训练装置的方框示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的模型训练方法及装置。
图1是本发明实施例的模型训练方法的流程图。如图1所示,该模型训练方法包括以下步骤:
S1,获取样本集合,并对样本集合进行分类以形成多个分类样本集合。
应当理解的是,本发明实施例可以将采集的样本集合根据分类要求进行自动分类,其中,每个分类样本集合中可以只含有本类目标或者主要含有本类目标,例如,本发明实施例可以对整瓶进行分选,对获取到的整瓶的图像按照白、蓝、绿、杂色等颜色进行分类。
由此,通过自动分类的方式对获取到的样本集合进行分类,可以在进行模型训练时,保证训练样本的类间均衡性,相比于相关技术中的随机分配方式而言,更具明显优势。
S2,获取每个分类样本集合之中每个样本的范数值。
其中,根据本发明的一个实施例,获取每个分类样本集合之中每个样本的范数值,包括:获取每个分类样本集合之中每个样本对应的像素点的加权平均值,以及根据每个分类样本集合之中每个样本对应的像素点的加权平均值计算每个样本的范数值。
举例而言,以对整瓶进行分选为例,对获取到的整瓶图像按照白、蓝、绿、杂色等颜色进行分类,其中,可以通过下述公式进行计算分类以后的每类样本所有图片对应的像素点的加权平均值:
Figure BDA0002394978170000061
Figure BDA0002394978170000062
Figure BDA0002394978170000063
其中,
Figure BDA0002394978170000064
为一类样本中第j行,第k列像素点对应R值的加权平均值,
Figure BDA0002394978170000065
为该类所有样本的第j行,第k列像素点对应R值的和,
Figure BDA0002394978170000066
为该类样本中第j行,第k列像素点对应G值的加权平均值,
Figure BDA0002394978170000067
为该类所有样本的第j行,第k列像素点对应G值的和,
Figure BDA0002394978170000068
为该类样本中第j行,第k列像素点对应B值的加权平均值,
Figure BDA0002394978170000069
为该类所有样本的第j行,第k列像素点对应B值的和,Ni为该类样本数。
需要说明的是,上述在计算所有图片对应的像素点的加权平均值时,各像素点的权值以1进行计算的,在实际计算中,该权值可以根据实际情况进行调整,也可以根据每轮训练之间的相互反馈进行调整,在此不做具体限定。
进而可以根据上述计算得到的加权平均值,通过以下公式计算每类中每张图片的范数值L2:
Figure BDA00023949781700000610
其中,W为图片的宽,H为图片的高。
需要说明的是,通过上述方式获取每个分类样本集合之中每个样本的范数值仅为示例性的,不作为对本发明的限制,本领域技术人员还可以通过其他方式获取每个分类样本集合之中每个样本的范数值,例如,本发明实施例可以首先获取每个分类样本集合之中每个样本对应的像素点的加权平均值,并根据该加权平均值生成每个分类样本集合之中每个样本的均值矩阵,其中,均值矩阵可以计为
Figure BDA0002394978170000071
从而根据每个分类样本集合之中每个样本的均值矩阵计算每个图片的范数值,为避免冗余,在此不做详细赘述。
由此,通过对每个样本进行范数处理,可以将每个样本进行量化,从而通过量化值即可判断样本是否处在样本集中心还是远离中心,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程。也便于后续在进行增广时保证训练样本分布更加均衡与多样。
S3,根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合。
应当理解的是,抽取的样本数量m可以为由本领域技术人员在经过大量实验之后得到的数据,也可以为根据实验数据进行计算机仿真之后得到的数据,具体数值在此不做限定。
其中,本发明实施例可以针对每个分类样本集合,在样本的范数值大于或等于分类样本集合的范数值均值的样本中,根据样本的范数值大小,按照从小到大的顺序抽取a个样本,并在样本的范数值小于分类样本集合的范数值均值的样本中,根据样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
当抽取的样本个数m为偶数时,优选地,a=b=m/2;
当抽取的样本个数m为奇数时,优选地,a=(m-1)/2,b=(m+1)/2,或者,a=(m+1)/2,b=(m-1)/2。
由此,可以有效保证样本之间的均衡性。
S4,根据第一训练集合对模型进行训练。
具体而言,本发明实施例可以对第一训练集合进行最优训练,并且本发明实施例在根据第一训练集合对模型进行训练时,可以根据设定的终止条件自动终止训练,其中,模型训练的终止条件由召回率和训练次数确定,召回率和训练次数满足其中一种条件即可自动终止,产生最优模型作为最终模型。另外,在终止训练后可以将当前训练模型参数保存,以便在下次再训练时,可以利用此次模型中参数作为基础参数。
应用本技术方案,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性。针对每个分类样本集合都计算了所包含的各个图片的范数值,量化了各个分类样本集合中样本之间的聚集与离散程度,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程。
如图2所示,在本发明的另一个实施例中,模型训练方法,包括以下步骤:
S201,获取样本集合,并对样本集合进行分类以形成多个分类样本集合。
S202,获取每个分类样本集合之中每个样本的范数值。
S203,根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合。
S204,根据第一训练集合对模型进行训练。
S205,根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除。
具体而言,本发明实施例可以根据当前模型(即训练之后的模型)自动对每类剩余样本集进行测试,自动剔除类别判断正确的样本,并在将类别判断正确的样本剔除后,这样可以减少同类样本之间的数据冗余,从而可以提高训练效率。
S206,判断每个分类样本集合之中的剩余样本数量是否满足预设条件,如果不满足预设条件,则执行步骤S207。
S207,根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,并将抽取到的样本加入第一训练集合,以更新第一训练集合。
应当理解的是,在将类别判断正确的样本剔除后,针对所有的类别,判断剔除后的每类样本剩余数量是否均满足预设条件,其中,预设条件可以为每类剩余样本个数小于预设值,其中,该预设值可以为大于m的数,当然,小于m或等于m都是可以的。如果不满足预设条件,则根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,并将新抽取的m个样本加入第一训练集合,以对第一训练集合进行更新。例如,不满足预设条件可以为存在至少一个分类样本集合中的剩余样本数量大于或等于预设值,然后可以从这至少一个分类样本集合中的每个分类样本集合中分别抽取m个样本,其余的分类样本集合的样本数量小于预设值,可以不进行样本抽取。
进一步地,在本发明的一个实施例中,在根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本时,由于可能存在有一部分类别的样本并没有抽取到m个样本,因此,可以在将抽取到的样本加入第一训练集合时,确定是否存在出本次未抽取到m个样本的目标样本类别,如果存在,则从第一训练集合中的属于目标样本类别且样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,以及从第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为分类样本集合的范数值均值,σ为分类样本集合的范数值方差值,第一预设数量和第二预设数量的和为m;根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入第一训练集合,以更新第一训练集合。
一个分类样本集合对应一个样本类别,μ为分类样本集合的范数值均值,是根据该分类样本集合中所有原始样本的范数值计算均值得到的,σ为分类样本集合的范数值方差值,是根据该分类样本集合中所有原始样本的范数值及对应的均值μ计算得到的得到的,该计算均值和方差值的过程属于现有技术,在此不做赘述。针对属于目标样本类别的样本进行抽取时,所使用的范数值区间是根据目标样本类别对应的分类样本集的范数值、均值和方差值确定的。
需要说明的是,当抽取的样本个数m为偶数时,优选地,第一预设数量和第二预设数量均可以为m/2;当抽取的样本个数m为奇数时,优选地,第一预设数量可以为(m-1)/2,第二预设数量可以为(m+1)/2,或者,第一预设数量可以为(m+1)/2,第二预设数量可以为(m-1)/2;预设的增广方式可以为上下翻转,左右翻转,角度翻转、光强变化等中的任意一种或者多种,也就是说,在抽取到m个样本之后,本发明实施例可以分别对m个样本进行增广变换获得另外m个样本,例如,可以对m个样本均进行上下翻转,或者左右翻转;也可以对m个样本中的一部分进行角度翻转,一部分进行光强变化,对m个样本选择何种方式进行增广变化可以由相关技术人员根据是情况进行确定,在此不做具体限制。
S208,根据更新后的第一训练集合对模型进行训练,并返回执行根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至剩余样本数量满足预设条件。
也就是说,在更新第一训练集合后,本发明实施例可以通过更新后的第一训练集合对模型进行训练,并在训练后再次根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,并判断每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足预设条件,则根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,并将抽取到的样本加入第一训练集合,以更新第一训练集合;根据更新后的第一训练集合对模型进行训练;返回执行根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,……,如此循环,直至每个分类样本集合之中的剩余样本数量满足小于预设值。
由此,在不满足预设条件时,可以在将抽取到的样本加入第一训练集合时,确定出本次未抽取到m个样本的目标样本类别,通过定向增广的方式对第一训练集合中的属于目标样本类别且样本的范数值位于预设区间的一部分样本进行增广,以在第一训练集合中针对该类增加m个样本,从而扩大训练集样本的鲁棒性,同时通过样本分配与训练相互反馈的方式,有效保证了样本的合理性及均衡性。
根据本发明的一个实施例,上述的模型训练方法,还包括:如果满足预设条件,则将剩余样本均加入第一训练集合以更新第一训练集合,并根据更新后的第一训练集合对模型进行训练。
通过这种方式充分利用预先采集的样本集中的样本进行训练,提高训练后模型的识别性能以及鲁棒性。
其中,根据本发明的一个实施例,将剩余样本均加入第一训练集合,以更新第一训练集合,包括:将剩余样本均加入第一训练集合,并针对第一训练集合中的每一类样本,将样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新第一训练集合,使得第一训练集合中的每一类样本的数量达到样本目标数量。
具体而言,样本目标数量可以为增广变换之后的数量,例如,当前第一训练集中的所有类别中最大样本数量为A1,则样本目标数量可以为A1的任意整数倍,如样本目标数量为A1的5倍。另外,由于本发明实施例的样本满足正态分布,为保证增广变换之后样本的均衡性,可以在将剩余样本均加入第一训练集合后,针对第一训练集合中的每一类样本进行分区间增广,如使样本的范数值位于(μ-σ,u+σ)中的样本经过增广变换之后,增广至样本目标数量的30-50%,而对于(Min(L2),u-σ)和(μ+σ,Max(L2))中的样本经过增广变换之后,增广至样本目标数量的50-70%,并使得第一训练集合中的每一类样本的数量达到样本目标数量。
举例而言,针对第一训练集合中的每一类样本,首先确定所有类别中,最大的样本数量A1,样本目标数量为A2,其中,将每一组的数量增广到样本目标数量A2可以按照预定顺序实现循环增广的方式进行。假设本发明实施例需要将[(Min(L2),u-σ),(μ+σ,Max(L2))]区间的样本数量增广到1000个,在(Min(L2),u-σ)区间内,有100个样本,需要增广至500个,按照从小到大的顺序,对每个样本进行增广变换,遍历4遍以增广至500个;在(μ+σ,Max(L2))区间内,有90个样本,按照从大到小的顺序,对每个样本进行增广变换,循环遍历6遍,在第6遍针对第50个样本进行变换后实现增广至500个,需要说明的是,每轮遍历针对同一图片不采用同一方式进行增广变换,如第一次遍历时,图片B采用上下翻转的方式进行增广变换;第二次遍历时,图片B采用左右翻转的方式进行增广变换;第三次遍历时,图片C采用角度翻转的方式进行增广变换。
由此,通过泛化增广的方式,使得偏离中心样本更加丰富,并且适当减少处于样本集中心的样本增广数量,可以使得样本更丰富,也可以减少无谓的增广,从而保证第一训练集合中的每一类样本的数量达到样本目标数量,训练样本分布更加均衡与多样。
需要说明的是,在本发明中,可以经过多次更新第一训练集合,实现多轮训练,在每轮训练中,可以自动获取该轮训练所采用的终止条件,即训练次数和召回率。其中,训练次数可以为一个固定值,该固定值可以由相关技术人员经过大量实验数据后获得,也可以由相关技术人员根据实际情况进行设定,优选地,如果经过多轮训练,前几轮训练所采用的终止条件中的训练次数,可以设置为小于正常训练次数的值,而最后一次训练中采用的训练次数可以为正常训练次数的几十至几百倍。
进一步地,根据本发明的一个实施例,通过下述公式得到召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量,即MAX(Ni)为最初始多个分类样本集合中的最大样本数量。
并且,由上述公式可以看出,训练轮次越多,召回率的越大,即随着训练轮次越多自动终止精度条件越高,例如本次召回率可以设为99.99%,从而不仅可以保证训练速度快,而且还可取得最优训练模型。
由此,通过自动分配训练样本及无监督训练方式,解决了通过自动分配提高样本的合理性及均衡性,通过样本分配与训练相互反馈,达到训练出模型的最优,进而提高训练模型的分类性能及鲁棒性。
根据本发明实施例提出的模型训练方法,可以获取样本集合,并对样本集合进行分类以形成多个分类样本集合,并获取每个分类样本集合之中每个样本的范数值,并根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合,以及根据第一训练集合对模型进行训练。由此,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的合理性和均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程,也就是说,本发明实施例可以通过自动分配训练样本、无监督训练和训练相互反馈的方式,有效保证样本的合理性及均衡性,从而使得训练出模型的达到最优,进而大大提高训练模型的分类性能。
图3是本发明实施例的模型训练装置的方框示意图。如图3所示,该模型训练装置包括:分类模块100、获取模块200和抽取训练模块300。
其中,分类模块100用于获取样本集合,并对样本集合进行分类以形成多个分类样本集合。获取模块200用于获取每个分类样本集合之中每个样本的范数值。抽取训练模块300用于根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合,并根据第一训练集合对模型进行训练。
根据本发明的一个实施例,获取模块200具体用于:获取每个分类样本集合之中每个样本对应的像素点的加权平均值,以及根据每个分类样本集合之中每个样本对应的像素点的加权平均值计算每个样本的范数值。
根据本发明的一个实施例,在根据第一训练集合对模型进行训练之后,抽取训练模块300还用于:根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除;判断每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足预设条件,则根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,并将抽取到的样本加入第一训练集合,以更新第一训练集合;根据更新后的第一训练集合对模型进行训练;返回执行根据训练之后的模型对每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至剩余样本数量满足预设条件。
根据本发明的一个实施例,抽取训练模块300还用于:针对每个分类样本集合,在样本的范数值大于或等于分类样本集合的范数值均值的样本中,根据样本的范数值大小,按照从小到大的顺序抽取a个样本,并在样本的范数值小于分类样本集合的范数值均值的样本中,根据样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
根据本发明的一个实施例,抽取训练模块300还用于:将抽取到的样本加入第一训练集合,并确定是否存在本次未抽取到m个样本的目标样本类别;如果存在,则从第一训练集合中的属于目标样本类别且样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,从第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为分类样本集合的范数值均值,σ为分类样本集合的范数值方差值,第一预设数量和第二预设数量的和为m;根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入第一训练集合,以更新第一训练集合。
根据本发明的一个实施例,上述的模型训练装置,抽取训练模块300还用于:在满足预设条件时,将剩余样本均加入第一训练集合以更新第一训练集合,并根据更新后的第一训练集合对模型进行训练。
根据本发明的一个实施例,抽取训练模块300还用于:将剩余样本均加入第一训练集合,并针对第一训练集合中的每一类样本,将样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新第一训练集合,使得第一训练集合中的每一类样本的数量达到样本目标数量。
根据本发明的一个实施例,模型训练的终止条件由召回率和训练次数确定,其中,通过下述公式得到召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量。
需要说明的是,前述对模型训练方法实施例的解释说明也适用于该实施例的模型训练装置,此处不再赘述。
根据本发明实施例的模型训练装置,可以通过分类模块获取样本集合,并对样本集合进行分类以形成多个分类样本集合,并通过获取模块获取每个分类样本集合之中每个样本的范数值,并通过抽取训练模块根据每个分类样本集合之中每个样本的范数值从每个分类样本集合之中抽取m个样本,以形成第一训练集合,并根据第一训练集合对模型进行训练。由此,由此,从分类产生的各类样本中,分别抽取样本来组成用于训练的样本,保证了样本类间的合理性和均衡性,可以避免训练样本不会偏向部分类,通过这种训练方式,可以提高训练后的模型的识别性能与鲁棒性,根据范数值抽取样本,可以更有针对性的抽取样本,有利于控制整个训练过程,也就是说,本发明实施例可以通过自动分配训练样本、无监督训练和训练相互反馈的方式,有效保证样本的合理性及均衡性,从而使得训练出模型的达到最优,进而大大提高训练模型的分类性能。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种图像分类模型训练方法,其特征在于,包括:
获取样本集合,并对所述样本集合进行颜色分类以形成多个分类样本集合,其中,样本为图像;
获取每个所述分类样本集合之中每个样本的范数值;
根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,以形成第一训练集合;
根据所述第一训练集合对所述模型进行训练;
其中,在所述根据所述第一训练集合对所述模型进行训练之后,还包括:根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除;判断所述每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足所述预设条件,则根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,并将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合;根据更新后的所述第一训练集合对所述模型进行训练;返回执行所述根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至所述剩余样本数量满足所述预设条件。
2.如权利要求1所述的图像分类模型训练方法,其特征在于,所述获取每个所述分类样本集合之中每个样本的范数值,包括:
获取所述每个分类样本集合之中每个样本对应的像素点的加权平均值,以及
根据所述每个分类样本集合之中每个样本对应的像素点的加权平均值计算所述每个样本的范数值。
3.如权利要求1所述的图像分类模型训练方法,其特征在于,所述根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,包括:
针对每个所述分类样本集合,在所述样本的范数值大于或等于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从小到大的顺序抽取a个样本,并在所述样本的范数值小于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
4.如权利要求1所述的图像分类模型训练方法,其特征在于,所述将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合,包括:
将抽取到的样本加入所述第一训练集合,并确定是否存在本次未抽取到m个样本的目标样本类别;
如果存在,则从所述第一训练集合中的属于所述目标样本类别且所述样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,从所述第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,所述第一预设数量和所述第二预设数量的和为m,L2为范数值;
根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入所述第一训练集合,以更新所述第一训练集合。
5.如权利要求1所述的图像分类模型训练方法,其特征在于,还包括:
如果满足所述预设条件,则将所述剩余样本均加入所述第一训练集合以更新所述第一训练集合,并根据更新后的所述第一训练集合对所述模型进行训练。
6.如权利要求5所述的图像分类模型训练方法,其特征在于,所述将所述剩余样本均加入所述第一训练集合,以更新所述第一训练集合,包括:
将所述剩余样本均加入所述第一训练集合,并针对所述第一训练集合中的每一类样本,将所述样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将所述样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新所述第一训练集合,使得所述第一训练集合中的每一类样本的数量达到样本目标数量,其中,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,L2为范数值。
7.如权利要求1所述的图像分类模型训练方法,其特征在于,所述模型训练的终止条件由召回率和训练次数确定,其中,通过下述公式得到所述召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为所述召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量。
8.一种图像分类模型训练装置,其特征在于,包括:
分类模块,用于获取样本集合,并对所述样本集合进行颜色分类以形成多个分类样本集合,其中,样本为图像;
获取模块,用于获取每个所述分类样本集合之中每个样本的范数值;
抽取训练模块,用于根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,以形成第一训练集合,并根据所述第一训练集合对所述模型进行训练;
其中,在所述根据所述第一训练集合对所述模型进行训练之后,所述抽取训练模块还用于:根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除;判断所述每个分类样本集合之中的剩余样本数量是否满足预设条件;如果不满足所述预设条件,则根据每个所述分类样本集合之中每个所述样本的范数值从所述每个分类样本集合之中抽取m个样本,并将抽取到的样本加入所述第一训练集合,以更新所述第一训练集合;根据更新后的所述第一训练集合对所述模型进行训练;返回执行所述根据训练之后的模型对所述每个分类样本集合之中的剩余样本进行测试,以将类别判断正确的样本剔除,直至所述剩余样本数量满足所述预设条件。
9.如权利要求8所述的图像分类模型训练装置,其特征在于,所述获取模块,具体用于:
获取所述每个分类样本集合之中每个样本对应的像素点的加权平均值,以及
根据所述每个分类样本集合之中每个样本对应的像素点的加权平均值计算所述每个样本的范数值。
10.如权利要求8所述的图像分类模型训练装置,其特征在于,所述抽取训练模块还用于:
针对每个所述分类样本集合,在所述样本的范数值大于或等于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从小到大的顺序抽取a个样本,并在所述样本的范数值小于所述分类样本集合的范数值均值的样本中,根据所述样本的范数值大小,按照从大到小的顺序抽取b个样本,其中,a+b=m。
11.如权利要求8所述的图像分类模型训练装置,其特征在于,所述抽取训练模块,还用于:
将抽取到的样本加入所述第一训练集合,并确定是否存在本次未抽取到m个样本的目标样本类别;
如果存在,则从所述第一训练集合中的属于所述目标样本类别且所述样本的范数值位于(Min(L2),u-σ)的样本中,抽取第一预设数量个样本,从所述第一训练集合中的属于目标样本类别且范数值位于(μ+σ,Max(L2))的样本中,抽取第二预设数量个样本,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,所述第一预设数量和所述第二预设数量的和为m,L2为范数值;
根据预设的增广方式对抽取的m个样本进行增广变换,并将增广变换后的m个样本加入所述第一训练集合,以更新所述第一训练集合。
12.如权利要求8所述的图像分类模型训练装置,其特征在于,所述抽取训练模块还用于:
在满足所述预设条件时,将所述剩余样本均加入所述第一训练集合以更新所述第一训练集合,并根据更新后的所述第一训练集合对所述模型进行训练。
13.如权利要求12所述的图像分类模型训练装置,其特征在于,所述所述抽取训练模块还用于:
将所述剩余样本均加入所述第一训练集合,并针对所述第一训练集合中的每一类样本,将所述样本的范数值位于(μ-σ,u+σ)中的样本通过增广变换,增广至样本目标数量的30-50%,并将所述样本的范数值位于[(Min(L2),u-σ),(μ+σ,Max(L2))]中的样本通过增广变换,增广至样本目标数量的50-70%,以更新所述第一训练集合,使得所述第一训练集合中的每一类样本的数量达到样本目标数量,其中,μ为所述分类样本集合的范数值均值,σ为所述分类样本集合的范数值方差值,L2为范数值。
14.如权利要求8所述的图像分类模型训练装置,其特征在于,所述模型训练的终止条件由召回率和训练次数确定,其中,通过下述公式得到所述召回率:
y=0.8+0.15*m*x/MAX(Ni);
其中,y为所述召回率,m为每次抽取样本数量,x为训练轮次,MAX(Ni)为所有分类样本集合中最大样本数量。
CN202010127972.2A 2020-02-28 2020-02-28 模型训练方法及装置 Active CN113326857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010127972.2A CN113326857B (zh) 2020-02-28 2020-02-28 模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010127972.2A CN113326857B (zh) 2020-02-28 2020-02-28 模型训练方法及装置

Publications (2)

Publication Number Publication Date
CN113326857A CN113326857A (zh) 2021-08-31
CN113326857B true CN113326857B (zh) 2022-09-23

Family

ID=77412621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010127972.2A Active CN113326857B (zh) 2020-02-28 2020-02-28 模型训练方法及装置

Country Status (1)

Country Link
CN (1) CN113326857B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104572930A (zh) * 2014-12-29 2015-04-29 小米科技有限责任公司 数据分类方法及装置
CN109960800A (zh) * 2019-03-13 2019-07-02 安徽省泰岳祥升软件有限公司 基于主动学习的弱监督文本分类方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101944122A (zh) * 2010-09-17 2011-01-12 浙江工商大学 一种融合增量学习的支持向量机多类分类方法
CN103853724B (zh) * 2012-11-29 2017-10-17 三星电子(中国)研发中心 多媒体数据分类方法及装置
CN103398769B (zh) * 2013-08-05 2014-12-31 国家电网公司 基于小波ggd特征和不均衡k-均值下采样集成svm的变压器在线故障检测方法
CN104616029B (zh) * 2014-12-29 2017-11-03 小米科技有限责任公司 数据分类方法及装置
CN106055613A (zh) * 2016-05-26 2016-10-26 华东理工大学 一种基于混合范数的数据分类训练数据库清洗方法
CN108229512B (zh) * 2016-12-22 2021-10-08 扬州大学 一种基于非负表示系数的两阶段识别方法
CN108156519B (zh) * 2017-12-25 2020-12-11 深圳Tcl新技术有限公司 图像分类方法、电视设备及计算机可读存储介质
WO2019172868A1 (en) * 2018-03-05 2019-09-12 Clinc, Inc. Systems and method for automatically configuring machine learning models
CN108985929B (zh) * 2018-06-11 2022-04-08 创新先进技术有限公司 训练方法、业务数据分类处理方法及装置、电子设备
CN110728313B (zh) * 2019-09-29 2023-01-17 北京声智科技有限公司 一种用于意图分类识别的分类模型训练方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104572930A (zh) * 2014-12-29 2015-04-29 小米科技有限责任公司 数据分类方法及装置
CN109960800A (zh) * 2019-03-13 2019-07-02 安徽省泰岳祥升软件有限公司 基于主动学习的弱监督文本分类方法及装置

Also Published As

Publication number Publication date
CN113326857A (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
CN110334765B (zh) 基于注意力机制多尺度深度学习的遥感影像分类方法
CN105528638B (zh) 灰色关联分析法确定卷积神经网络隐层特征图个数的方法
CN1276381C (zh) 区域检测方法及其装置
CN104598885B (zh) 街景图像中的文字标牌检测与定位方法
CN107169504A (zh) 一种基于扩展非线性核残差网络的手写字符识别方法
CN109299741A (zh) 一种基于多层检测的网络攻击类型识别方法
CN110826592A (zh) 一种基于全卷积神经网络的对虾养殖残饵计数方法
CN111199217B (zh) 一种基于卷积神经网络的交通标志识别方法和系统
CN108491864A (zh) 基于自动确定卷积核大小卷积神经网络的高光谱图像分类
CN109740451A (zh) 基于重要性加权的道路场景图像语义分割方法
CN110110845B (zh) 一种基于并行多级宽度神经网络的学习方法
CN112580662A (zh) 一种基于图像特征识别鱼体方向的方法及系统
CN110569780A (zh) 一种基于深度迁移学习的高精度人脸识别方法
CN108009567A (zh) 一种结合图像颜色及hog和svm的粪便性状的自动辨别方法
CN108805125A (zh) 基于粒子群算法优化神经网络的车牌识别系统及方法
CN112364705A (zh) 基于多层次特征融合的轻量型cnn的表情识别方法
CN111798526A (zh) 基于聚类空间映射的彩色图像主色快速提取方法及系统
CN108765267A (zh) 一种基于误差扩散抖动算法的数码迷彩生成方法及系统
CN113326857B (zh) 模型训练方法及装置
CN115272838A (zh) 基于信息融合技术的海洋浮游生物自动识别方法及系统
CN117037006B (zh) 一种高续航能力的无人机跟踪方法
CN111222545A (zh) 基于线性规划增量学习的图像分类方法
CN110188592A (zh) 一种尿液有形成分细胞图像分类模型构建方法及分类方法
CN114529752A (zh) 一种基于深度神经网络的样本增量学习方法
CN106570514A (zh) 一种基于词袋模型和支持向量机的汽车轮毂分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant