CN114529752A - 一种基于深度神经网络的样本增量学习方法 - Google Patents
一种基于深度神经网络的样本增量学习方法 Download PDFInfo
- Publication number
- CN114529752A CN114529752A CN202210002217.0A CN202210002217A CN114529752A CN 114529752 A CN114529752 A CN 114529752A CN 202210002217 A CN202210002217 A CN 202210002217A CN 114529752 A CN114529752 A CN 114529752A
- Authority
- CN
- China
- Prior art keywords
- task
- sample
- data
- model
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims description 48
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 238000004321 preservation Methods 0.000 claims 1
- 230000000717 retained effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 4
- 238000004821 distillation Methods 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的样本增量学习方法,涉及大数据智能分析技术领域,该方法在对新任务训练时,采用了对旧任务数据的知识蒸馏,这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj‑1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘,防止模型偏向预测新数据。
Description
技术领域
本发明涉及大数据智能分析技术领域,具体涉及一种基于深度神经网络的样本增量学习方法。
背景技术
样本增量学习目前没有严格的定义,但其主要特征包含两点:(1)能够将已知类的新样本加入到已有的知识系统中。(2)能够使一个基本的知识系统逐步演化为更加复杂的系统。
对于样本增量学习,以往的工作主要采用各种非神经网络学习算法来实现,如支持向量机、决策树、贝叶斯网络等。随着深度神经网络的发展,利用深度神经网络来实现类似人类记忆的增量学习成为了一大热点,但目前的研究主要集中在类别增量学习上,而对样本增量学习的研究少之又少,在样本增量学习任务中的一大难点在于:模型需要在不从头训练的情况下不断学习已知类别的新数据,并在学习后使得模型对这组类别的识别率不断上升,且接近离线学习的识别性能。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度神经网络的样本增量学习方法,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
优选的,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
优选的,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN。
优选的,所述CNN网络由一个特征提取器f(·)和一个全连接分类层C(·)组成,即p(xi)=C(f(xi)),损失函数采用交叉熵:
其中N为样本总数,M为类别数量,yic为符号函数,当样本xi的标签等于c时,yic等于1,反之为0;pc(xi)表示当前模型对样本xi属于类别集C的预测概率,p(xi)为当前模型对样本xi的预测概率。
优选的,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
优选的,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
优选的,所述步骤22中,特征均值的计算公式为:
优选的,所述步骤23中,欧几里得距离的计算公式为:
||·||表示欧几里得距离。
本发明的有益效果是:
该方法在对新任务训练时,采用了对旧任务数据的知识蒸馏,这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj-1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘,防止模型偏向预测新数据。
附图说明
图1显示为本发明的流程图;
图2显示为本发明的学习框架;
图3显示为本发明的任务学习过程好保留样本选择步骤;
图4显示为本发明旧任务数据的知识蒸馏过程。
具体实施方式
下面结合本发明的附图1~4,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施。
在本发明的描述中,需要理解的是,术语“逆时针”、“顺时针”“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1、图2所示,一种基于深度神经网络的样本增量学习方法,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
具体的,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
在样本增量学习的设置中,除了第一个任务的训练集D1,一般称为基本子任务训练集Dbase,除它有大量的训练样本外,其余每个任务数据集DN只包含较少样本,目的为通过不断学习已知类别的新样本数据,来不断增强模型对已知类别的识别表现,以达到接近离线学习的识别性能。基本任务训练结束后,当新任务数据可用时,利用新任务数据对当前模型进行微调更新,而不是再次从头训练。
具体的,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN。
假设第N个任务TN的训练集是DN,则它在第N个Session到达。CN是第TN的类别集,在样本增量学习中,不同任务的类之间是完全重叠的:即对于i≠j,Ci=Cj=C。
具体的,所述CNN网络由一个特征提取器f(·)和一个全连接分类层C(·)组成,即p(xi)=C(f(xi)),损失函数采用交叉熵:
其中N为样本总数,M为类别数量,yic为符号函数,当样本xi的标签等于c时,yic等于1,反之为0;pc(xi)表示当前模型对样本xi属于类别集C的预测概率,p(xi)为当前模型对样本xi的预测概率。
如图3所示,具体的,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
在基本任务学习完成后,且新的任务TN数据可用时,如果直接将其数据集DN用于训练更新当前模型,会使新模型的预测结果偏向于新数据的分布,从而损失对整体数据的预测精度。为了缓解这一现象,在每一个任务训练完成后,从当前数据集中为每类样本选择k个最有价值的样本进行保留,其中,k取任意值,用于构造旧任务数据集R。在训练下一个任务时,旧任务数据集R将与新任务的数据集共同参与训练,在保留旧任务知识的同时,防止模型偏向预测新数据。
具体的,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
具体的,所述步骤22中,特征均值的计算公式为:
具体的,所述步骤23中,欧几里得距离的计算公式为:
||·||表示欧几里得距离。
需要注意的时,旧任务数据集R中的样本是不断更新的,但其样本数量是固定的,即每类K个样本。当其参与新任务学习后,通过重新计算在当前模型下,每类训练样本与其特征中心距离最小的K个样本来重新构造旧任务数据集R。为了便于理解,对于在任务Tj-1中构造的旧任务数据集,用Rj表示,它将参与任务Tj的训练。即对于任务{T1,T2,...,TN},其实际的训练集表示为:
其中,在学习已知类别的新样本时,由于出现的新样本随机,与已学习样本的分布可能存在差异,对于分布差异较大的样本,模型学习后可能会影响其分类器对该类别的识别性能,导致整体识别性能的下降。因此,进一步提出新样本的挑选过程,通过估计新样本的特征分布,从新样本中挑选对相应类别学习有益的样本,以保证能够提升对该类别的识别性能。
具体过程为,对于已学习的旧样本,通过为其生成一个特征原型来代表其整体的特征分布。
对于新数据的学习,在模型训练前,通过当前旧模型输出新数据的特征,并计算新数据特征与对应类别的特征原型之间的近似程度,对于近似程度较高的样本,认为其与已学习的样本分布较近,是对当前模型学习有用的样本,应当保留。而近似程度较低的样本,认为其与已学习的样本分布较远,是对当前模型学习有负面影响的样本,应当舍弃。对于任务Tj中一个类别集C的新样本其在旧模型的特征输出为对应的类别特征原型为uc,则特征分布近似程度定义为:
对于计算所得的分布近似度γ,通过比较其与设定的近似度阈值τ的大小来判断该新样本是否有用:
|1-γ|≤τ
新任务学习时,模型由于更新参数,会对旧任务学习的知识发生遗忘,具体来说,更新后的模型对旧数据的预测结果会发生改变。尽管我们保留了一部分旧任务的数据,但这部分保留数据数量较少,且并不完全来自所有旧任务。例如,当任务Tj,...,Tj+m中存在多余K个样本的价值高于T1,...Tj-1中的样本时,旧任务数据集中的保留样本将不包含任务T1,...Tj-1中的数据。因此仍会发生对这部分任务知识的遗忘。
为了解决这一问题,在对新任务训练时,采用了对旧任务数据的知识蒸馏。具体来说,如图4所示,当任务Tj-1训练完成,并构造保留数据集Rj后。新任务Tj的数据集Dj将与保留数据集Rj共同训练并更新模型。为了使更新后的模型尽可能多的保持对旧数据的预测结果。在训练任务Tj前,先利用上一个任务获得的模型pj-1(·)来获取Rj中保留样本xk的预测结果pj-1(xk),这时获取的预测结果将作为保留样本xk在任务Tj中的训练标签,用于计算蒸馏损失。这样做的目的时使得旧数据xk在新模型的预测结果pj(xk)尽可能的接近其在旧模型上的预测结果pj-1(xk),使模型在学习新数据的同时,保持对旧数据的识别能力。
此时的损失函数包含两部分:对Dj中新数据的交叉熵损失以及对Rj中旧数据的蒸馏损失:
其中xi表示Dj中的新样本,xk表示Rj中的保留样本,和表示当前模型pj(·)对样本xi和xk属于类c的预测概率。表示旧模型pj-1(·)对保留样本xk属于类c的预测概率,将该结果作为保留样本xk在当前任务Tj中的训练标签,能够使模型保持对旧数据的预测结果,以缓解对旧知识的遗忘。
训练结束后,再次计算每一类的特征中心,并从当前的训练集中重新挑选离中心最近的K个样本保留用于更新保留样本数据集Rj+1,用于参与下一个任务Tj+1的训练。
在具体实施过程中,对于CIFAR100和Mini Image Net数据集,从训练集中为每一类分别选择300个样本作为基本任务数据集D1/Dbase,50个样本作为新任务数据集DN,共4组,即一共有5个学习过程(1个基本任务学习,4个新任务学习)。每个任务的训练集都是通过从原始训练数据集中随机抽取来构造的,测试集固定不变,测试样本为每类100个。
使用Resnet-18作为网络模型。每个任务训练时的Batch Size大小为128,初始学习率为0.1。在第30个epoch后(包括30),每10个epoch后将学习率手动降低10倍,并在第50个epoch完成后停止训练。
MiniImageNet:MiniImageNet数据集是Image Net-1k数据集的子集。共100个类,每类包含500张训练图像和100张测试图像。图像为大小为84×84的RGB格式。
CIFAR-100:CIFAR100数据集包含60,000张RGB图像,100个类,每个类有500个训练图像和100个测试图像。每幅图像的大小为32×32。
Claims (8)
1.一种基于深度神经网络的样本增量学习方法,其特征在于,包括以下步骤:
步骤1:采用CNN网络结构,为任务组中的各任务生成对应的任务数据集,对任务组中的基本任务开始训练生成模型,并得出新的任务数据集,判断新的任务数据集是否可用,若可用,则进入步骤2,若不可用,则进入步骤4;
步骤2:在新的任务数据集中,对每个类别的样本数据选择k个最优价值的样本数据进行保留,将保留的样本数据送入新任务中,进入步骤3;
步骤3:采用CNN网络结构,对加入样本数据后的新任务开始训练,生成下一任务对应的新任务数据集和模型,判断下一任务对应的新任务数据集是否可用,若可用,则返回步骤2,若不可用,则进入步骤4;
步骤4:停止训练,输出模型为最终学习结果。
2.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤1中,任务组T={T1,T2,...,TN},任务组T中包含一批类别集为C的图像,每个类别包含大量样本,在开始训练前已获得的样本数据称为基本数据,基本任务为CNN网络结构对基本数据的训练,任务组中除基本任务外,其余任务为训练任务。
3.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,从当前任务开始学习到下一个任务开始学习的时间间隔称为样本增量学习的一个Session,在第N个Session中,模型只能访问当前任务TN的任务数据集DN。
5.根据权利要求1所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤2中,在新任务数据集中对每个类别的样本数据选择k个最优价值的样本数据进行保留时,还包括以下步骤:
步骤21:依据新模型、新任务数据集,获取当前新模型的特征提取器,采用特征提取器提取出新任务数据集中所有样本数据的特征;
步骤22:根据提取的多个样本数据特征,为每一类样本数据计算特征均值,并计算多个样本数据特征与特征均值的欧几里得距离;
步骤23:保留欧几里得距离最小的样本数据特征所对应的k个样本数据。
6.根据权利要求5所述的一种基于深度神经网络的样本增量学习方法,其特征在于,所述步骤21中,当任务Tj-1训练完成后,得到当前任务的模型:
pj-1(·)=Cj-1fj-1(·)
其特征提取器为fj-1(·),Cj-1为当前任务的类别集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210002217.0A CN114529752A (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度神经网络的样本增量学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210002217.0A CN114529752A (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度神经网络的样本增量学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114529752A true CN114529752A (zh) | 2022-05-24 |
Family
ID=81620850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210002217.0A Pending CN114529752A (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度神经网络的样本增量学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529752A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116258944A (zh) * | 2023-05-15 | 2023-06-13 | 成都理工大学 | 基于双网络的遥感影像分类模型样本增量学习方法 |
CN116306875A (zh) * | 2023-05-18 | 2023-06-23 | 成都理工大学 | 基于空间预学习与拟合的排水管网样本增量学习方法 |
-
2022
- 2022-01-04 CN CN202210002217.0A patent/CN114529752A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116258944A (zh) * | 2023-05-15 | 2023-06-13 | 成都理工大学 | 基于双网络的遥感影像分类模型样本增量学习方法 |
CN116258944B (zh) * | 2023-05-15 | 2023-07-21 | 成都理工大学 | 基于双网络的遥感影像分类模型样本增量学习方法 |
CN116306875A (zh) * | 2023-05-18 | 2023-06-23 | 成都理工大学 | 基于空间预学习与拟合的排水管网样本增量学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241903B (zh) | 样本数据清洗方法、装置、计算机设备及存储介质 | |
CN112101190B (zh) | 一种遥感图像分类方法、存储介质及计算设备 | |
CN109934293B (zh) | 图像识别方法、装置、介质及混淆感知卷积神经网络 | |
CN111291183B (zh) | 利用文本分类模型进行分类预测的方法及装置 | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN109271958B (zh) | 人脸年龄识别方法及装置 | |
CN108389211B (zh) | 基于改进鲸鱼优化模糊聚类的图像分割方法 | |
CN109919252B (zh) | 利用少数标注图像生成分类器的方法 | |
CN109919183B (zh) | 一种基于小样本的图像识别方法、装置、设备及存储介质 | |
CN111797683A (zh) | 一种基于深度残差注意力网络的视频表情识别方法 | |
CN114529752A (zh) | 一种基于深度神经网络的样本增量学习方法 | |
CN110889450B (zh) | 超参数调优、模型构建方法和装置 | |
CN113076437B (zh) | 一种基于标签重分配的小样本图像分类方法及系统 | |
CN111798469A (zh) | 基于深度卷积神经网络的数字图像小数据集语义分割方法 | |
CN112861659A (zh) | 一种图像模型训练方法、装置及电子设备、存储介质 | |
CN115270752A (zh) | 一种基于多层次对比学习的模板句评估方法 | |
CN111782548A (zh) | 一种软件缺陷预测数据处理方法、装置及存储介质 | |
CN114782742A (zh) | 基于教师模型分类层权重的输出正则化方法 | |
CN109101984B (zh) | 一种基于卷积神经网络的图像识别方法及装置 | |
CN117037006B (zh) | 一种高续航能力的无人机跟踪方法 | |
CN112507981B (zh) | 模型生成方法、虹膜图像质量评估方法及电子设备 | |
CN114492581A (zh) | 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 | |
JP3482191B2 (ja) | 住所読み取りのための方法 | |
CN111860601A (zh) | 预测大型真菌种类的方法及装置 | |
CN108573275B (zh) | 一种在线分类微服务的构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220524 |