CN114529752A - 一种基于深度神经网络的样本增量学习方法 - Google Patents

一种基于深度神经网络的样本增量学习方法 Download PDF

Info

Publication number
CN114529752A
CN114529752A CN202210002217.0A CN202210002217A CN114529752A CN 114529752 A CN114529752 A CN 114529752A CN 202210002217 A CN202210002217 A CN 202210002217A CN 114529752 A CN114529752 A CN 114529752A
Authority
CN
China
Prior art keywords
task
sample
data
model
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210002217.0A
Other languages
English (en)
Inventor
姚光乐
祝钧桃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Univeristy of Technology
Original Assignee
Chengdu Univeristy of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Univeristy of Technology filed Critical Chengdu Univeristy of Technology
Priority to CN202210002217.0A priority Critical patent/CN114529752A/zh
Publication of CN114529752A publication Critical patent/CN114529752A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络的样本增量学习方法,涉及大数据智能分析技术领域,该方法在对新任务训练时,采用了对旧任务数据的知识蒸馏,这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj‑1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘,防止模型偏向预测新数据。

Description

一种基于深度神经网络的样本增量学习方法
技术领域
本发明涉及大数据智能分析技术领域,具体涉及一种基于深度神经网络的样本增量学习方法。
背景技术
样本增量学习目前没有严格的定义,但其主要特征包含两点:(1)能够将已知类的新样本加入到已有的知识系统中。(2)能够使一个基本的知识系统逐步演化为更加复杂的系统。
对于样本增量学习,以往的工作主要采用各种非神经网络学习算法来实现,如支持向量机、决策树、贝叶斯网络等。随着深度神经网络的发展,利用深度神经网络来实现类似人类记忆的增量学习成为了一大热点,但目前的研究主要集中在类别增量学习上,而对样本增量学习的研究少之又少,在样本增量学习任务中的一大难点在于:模型需要在不从头训练的情况下不断学习已知类别的新数据,并在学习后使得模型对这组类别的识别率不断上升,且接近离线学习的识别性能。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度神经网络的样本增量学习方法,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
优选的,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
优选的,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN
优选的,所述CNN网络由一个特征提取器f(·)和一个全连接分类层C(·)组成,即p(xi)=C(f(xi)),损失函数采用交叉熵:
Figure BDA0003455202020000021
其中N为样本总数,M为类别数量,yic为符号函数,当样本xi的标签等于c时,yic等于1,反之为0;pc(xi)表示当前模型对样本xi属于类别集C的预测概率,p(xi)为当前模型对样本xi的预测概率。
优选的,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
优选的,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
优选的,所述步骤22中,特征均值的计算公式为:
Figure BDA0003455202020000022
uc为特征均值,
Figure BDA0003455202020000023
为类别集C的样本,nc为类别集C的样本数量,
Figure BDA0003455202020000024
表示样本
Figure BDA0003455202020000025
的特征,Dj-1为类别集C的数据集。
优选的,所述步骤23中,欧几里得距离的计算公式为:
Figure BDA0003455202020000026
||·||表示欧几里得距离。
本发明的有益效果是:
该方法在对新任务训练时,采用了对旧任务数据的知识蒸馏,这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj-1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘,防止模型偏向预测新数据。
附图说明
图1显示为本发明的流程图;
图2显示为本发明的学习框架;
图3显示为本发明的任务学习过程好保留样本选择步骤;
图4显示为本发明旧任务数据的知识蒸馏过程。
具体实施方式
下面结合本发明的附图1~4,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施。
在本发明的描述中,需要理解的是,术语“逆时针”、“顺时针”“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1、图2所示,一种基于深度神经网络的样本增量学习方法,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
具体的,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
在样本增量学习的设置中,除了第一个任务的训练集D1,一般称为基本子任务训练集Dbase,除它有大量的训练样本外,其余每个任务数据集DN只包含较少样本,目的为通过不断学习已知类别的新样本数据,来不断增强模型对已知类别的识别表现,以达到接近离线学习的识别性能。基本任务训练结束后,当新任务数据可用时,利用新任务数据对当前模型进行微调更新,而不是再次从头训练。
具体的,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN
假设第N个任务TN的训练集是DN,则它在第N个Session到达。CN是第TN的类别集,在样本增量学习中,不同任务的类之间是完全重叠的:即对于i≠j,Ci=Cj=C。
具体的,所述CNN网络由一个特征提取器f(·)和一个全连接分类层C(·)组成,即p(xi)=C(f(xi)),损失函数采用交叉熵:
Figure BDA0003455202020000041
其中N为样本总数,M为类别数量,yic为符号函数,当样本xi的标签等于c时,yic等于1,反之为0;pc(xi)表示当前模型对样本xi属于类别集C的预测概率,p(xi)为当前模型对样本xi的预测概率。
如图3所示,具体的,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
在基本任务学习完成后,且新的任务TN数据可用时,如果直接将其数据集DN用于训练更新当前模型,会使新模型的预测结果偏向于新数据的分布,从而损失对整体数据的预测精度。为了缓解这一现象,在每一个任务训练完成后,从当前数据集中为每类样本选择k个最有价值的样本进行保留,其中,k取任意值,用于构造旧任务数据集R。在训练下一个任务时,旧任务数据集R将与新任务的数据集共同参与训练,在保留旧任务知识的同时,防止模型偏向预测新数据。
具体的,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
具体的,所述步骤22中,特征均值的计算公式为:
Figure BDA0003455202020000051
uc为特征均值,
Figure BDA0003455202020000052
为类别集C的样本,nc为类别集C的样本数量,
Figure BDA0003455202020000053
表示样本
Figure BDA0003455202020000054
的特征,Dj-1为类别集C的数据集。
具体的,所述步骤23中,欧几里得距离的计算公式为:
Figure BDA0003455202020000055
||·||表示欧几里得距离。
需要注意的时,旧任务数据集R中的样本是不断更新的,但其样本数量是固定的,即每类K个样本。当其参与新任务学习后,通过重新计算在当前模型下,每类训练样本与其特征中心距离最小的K个样本来重新构造旧任务数据集R。为了便于理解,对于在任务Tj-1中构造的旧任务数据集,用Rj表示,它将参与任务Tj的训练。即对于任务{T1,T2,...,TN},其实际的训练集
Figure BDA0003455202020000056
表示为:
Figure BDA0003455202020000057
其中,在学习已知类别的新样本时,由于出现的新样本随机,与已学习样本的分布可能存在差异,对于分布差异较大的样本,模型学习后可能会影响其分类器对该类别的识别性能,导致整体识别性能的下降。因此,进一步提出新样本的挑选过程,通过估计新样本的特征分布,从新样本中挑选对相应类别学习有益的样本,以保证能够提升对该类别的识别性能。
具体过程为,对于已学习的旧样本,通过为其生成一个特征原型来代表其整体的特征分布。
对于新数据的学习,在模型训练前,通过当前旧模型输出新数据的特征,并计算新数据特征与对应类别的特征原型之间的近似程度,对于近似程度较高的样本,认为其与已学习的样本分布较近,是对当前模型学习有用的样本,应当保留。而近似程度较低的样本,认为其与已学习的样本分布较远,是对当前模型学习有负面影响的样本,应当舍弃。对于任务Tj中一个类别集C的新样本
Figure BDA0003455202020000061
其在旧模型的特征输出为
Figure BDA0003455202020000062
对应的类别特征原型为uc,则特征分布近似程度定义为:
Figure BDA0003455202020000063
其中Ndime表示特征的维度,
Figure BDA0003455202020000068
表示L1范数,该近似程度公式表示新样本特征输出
Figure BDA0003455202020000064
与类别原型uc在特征每一个维度上的比值的平均值。为了便于计算,
Figure BDA0003455202020000065
和uc在计算前会进行归一化,保证特征每一个维度值为正数。
对于计算所得的分布近似度γ,通过比较其与设定的近似度阈值τ的大小来判断该新样本是否有用:
|1-γ|≤τ
新任务学习时,模型由于更新参数,会对旧任务学习的知识发生遗忘,具体来说,更新后的模型对旧数据的预测结果会发生改变。尽管我们保留了一部分旧任务的数据,但这部分保留数据数量较少,且并不完全来自所有旧任务。例如,当任务Tj,...,Tj+m中存在多余K个样本的价值高于T1,...Tj-1中的样本时,旧任务数据集中的保留样本将不包含任务T1,...Tj-1中的数据。因此仍会发生对这部分任务知识的遗忘。
为了解决这一问题,在对新任务训练时,采用了对旧任务数据的知识蒸馏。具体来说,如图4所示,当任务Tj-1训练完成,并构造保留数据集Rj后。新任务Tj的数据集Dj将与保留数据集Rj共同训练并更新模型。为了使更新后的模型尽可能多的保持对旧数据的预测结果。在训练任务Tj前,先利用上一个任务获得的模型pj-1(·)来获取Rj中保留样本xk的预测结果pj-1(xk),这时获取的预测结果将作为保留样本xk在任务Tj中的训练标签,用于计算蒸馏损失。这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj-1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力。
此时的损失函数包含两部分:对Dj中新数据的交叉熵损失以及对Rj中旧数据的蒸馏损失:
Figure BDA0003455202020000066
Figure BDA0003455202020000067
Figure BDA0003455202020000071
其中xi表示Dj中的新样本,xk表示Rj中的保留样本,
Figure BDA0003455202020000072
Figure BDA0003455202020000073
表示当前模型pj(·)对样本xi和xk属于类c的预测概率。
Figure BDA0003455202020000074
表示旧模型pj-1(·)对保留样本xk属于类c的预测概率,将该结果作为保留样本xk在当前任务Tj中的训练标签,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘。
训练结束后,再次计算每一类的特征中心,并从当前的训练集中重新挑选离中心最近的K个样本保留用于更新保留样本数据集Rj+1,用于参与下一个任务Tj+1的训练。
在具体实施过程中,对于CIFAR100和Mini Image Net数据集,从训练集中为每一类分别选择300个样本作为基本任务数据集D1/Dbase,50个样本作为新任务数据集DN,共4组,即一共有5个学习过程(1个基本任务学习,4个新任务学习)。每个任务的训练集都是通过从原始训练数据集中随机抽取来构造的,测试集固定不变,测试样本为每类100个。
使用Resnet-18作为网络模型。每个任务训练时的Batch Size大小为128,初始学习率为0.1。在第30个epoch后(包括30),每10个epoch后将学习率手动降低10倍,并在第50个epoch完成后停止训练。
MiniImageNet:MiniImageNet数据集是Image Net-1k数据集的子集。共100个类,每类包含500张训练图像和100张测试图像。图像为大小为84×84的RGB格式。
CIFAR-100:CIFAR100数据集包含60,000张RGB图像,100个类,每个类有500个训练图像和100个测试图像。每幅图像的大小为32×32。

Claims (8)

1.一种基于深度神经网络的样本增量学习方法,其特征在于,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
2.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
3.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN
4.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述CNN网络由一个特征提取器f(·)和一个全连接分类层C(·)组成,即p(xi)=C(f(xi)),损失函数采用交叉熵:
Figure FDA0003455202010000011
其中N为样本总数,M为类别数量,yic为符号函数,当样本xi的标签等于c时,yic等于1,反之为0;pc(xi)表示当前模型对样本xi属于类别集C的预测概率,p(xi)为当前模型对样本xi的预测概率。
5.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
6.根据权利要求5所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
7.根据权利要求6所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤22中,特征均值的计算公式为:
Figure FDA0003455202010000021
uc为特征均值,
Figure FDA0003455202010000022
为类别集C的样本,nc为类别集C的样本数量,
Figure FDA0003455202010000023
表示样本
Figure FDA0003455202010000024
的特征,Dj-1为类别集C的数据集。
8.根据权利要求7所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤23中,欧几里得距离的计算公式为:
Figure FDA0003455202010000025
||·||表示欧几里得距离。
CN202210002217.0A 2022-01-04 2022-01-04 一种基于深度神经网络的样本增量学习方法 Pending CN114529752A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210002217.0A CN114529752A (zh) 2022-01-04 2022-01-04 一种基于深度神经网络的样本增量学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210002217.0A CN114529752A (zh) 2022-01-04 2022-01-04 一种基于深度神经网络的样本增量学习方法

Publications (1)

Publication Number Publication Date
CN114529752A true CN114529752A (zh) 2022-05-24

Family

ID=81620850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210002217.0A Pending CN114529752A (zh) 2022-01-04 2022-01-04 一种基于深度神经网络的样本增量学习方法

Country Status (1)

Country Link
CN (1) CN114529752A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116258944A (zh) * 2023-05-15 2023-06-13 成都理工大学 基于双网络的遥感影像分类模型样本增量学习方法
CN116306875A (zh) * 2023-05-18 2023-06-23 成都理工大学 基于空间预学习与拟合的排水管网样本增量学习方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116258944A (zh) * 2023-05-15 2023-06-13 成都理工大学 基于双网络的遥感影像分类模型样本增量学习方法
CN116258944B (zh) * 2023-05-15 2023-07-21 成都理工大学 基于双网络的遥感影像分类模型样本增量学习方法
CN116306875A (zh) * 2023-05-18 2023-06-23 成都理工大学 基于空间预学习与拟合的排水管网样本增量学习方法

Similar Documents

Publication Publication Date Title
CN109241903B (zh) 样本数据清洗方法、装置、计算机设备及存储介质
CN112101190B (zh) 一种遥感图像分类方法、存储介质及计算设备
CN109934293B (zh) 图像识别方法、装置、介质及混淆感知卷积神经网络
CN111291183B (zh) 利用文本分类模型进行分类预测的方法及装置
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
CN109271958B (zh) 人脸年龄识别方法及装置
CN108389211B (zh) 基于改进鲸鱼优化模糊聚类的图像分割方法
CN109919252B (zh) 利用少数标注图像生成分类器的方法
CN109919183B (zh) 一种基于小样本的图像识别方法、装置、设备及存储介质
CN111797683A (zh) 一种基于深度残差注意力网络的视频表情识别方法
CN114529752A (zh) 一种基于深度神经网络的样本增量学习方法
CN110889450B (zh) 超参数调优、模型构建方法和装置
CN113076437B (zh) 一种基于标签重分配的小样本图像分类方法及系统
CN111798469A (zh) 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN112861659A (zh) 一种图像模型训练方法、装置及电子设备、存储介质
CN115270752A (zh) 一种基于多层次对比学习的模板句评估方法
CN111782548A (zh) 一种软件缺陷预测数据处理方法、装置及存储介质
CN114782742A (zh) 基于教师模型分类层权重的输出正则化方法
CN109101984B (zh) 一种基于卷积神经网络的图像识别方法及装置
CN117037006B (zh) 一种高续航能力的无人机跟踪方法
CN112507981B (zh) 模型生成方法、虹膜图像质量评估方法及电子设备
CN114492581A (zh) 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法
JP3482191B2 (ja) 住所読み取りのための方法
CN111860601A (zh) 预测大型真菌种类的方法及装置
CN108573275B (zh) 一种在线分类微服务的构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220524