CN114926702B - 一种基于深度注意力度量的小样本图像分类方法 - Google Patents

一种基于深度注意力度量的小样本图像分类方法 Download PDF

Info

Publication number
CN114926702B
CN114926702B CN202210400572.3A CN202210400572A CN114926702B CN 114926702 B CN114926702 B CN 114926702B CN 202210400572 A CN202210400572 A CN 202210400572A CN 114926702 B CN114926702 B CN 114926702B
Authority
CN
China
Prior art keywords
sample
class
weight
depth
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210400572.3A
Other languages
English (en)
Other versions
CN114926702A (zh
Inventor
魏巍
张磊
周飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210400572.3A priority Critical patent/CN114926702B/zh
Publication of CN114926702A publication Critical patent/CN114926702A/zh
Application granted granted Critical
Publication of CN114926702B publication Critical patent/CN114926702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度注意力度量的小样本图像分类方法,首先,根据小样本任务中的少量标注样本构建跨类样本对;然后,使用变分自编码器建立以跨类样本对为条件的多模态权重分布;接着,根据多模态权重分布采样生成深度度量网络;最后,使用生成的深度度量网络进行小样本图像分类。本发明方法根据任务描述信息生任务自适应的深度度量,解决了非参数化距离度量导致判别能力不足以及参数化的线性分类器容易过拟合的问题。采用端到端的元学习方式,避免了训练任务特定的分类器带来的时间开销,在小样本图像分类中取得了较好的分类效果。

Description

一种基于深度注意力度量的小样本图像分类方法
技术领域
本发明属于模式识别技术领域,具体涉及一种小样本图像分类方法。
背景技术
目前图像处理已经被广泛应用于工业制造、农业生产及军事遥感等众多领域。图像分类是其中的一项重要应用。在实际的应用中,往往面临着样本难获取以及难标注等问题,在训练时仅有少量的标记数据,呈现出典型的小样本特性。与传统机器学习的范式有所不同,小样本图像分类打破了独立同分布的假设,旨在能够在一个或者几个标注样本的条件下,将训练数据学习到的模型有效泛化到测试数据中。由于训练数据与测试数据的类别不同,而且分布差异较大,导致小样本图像分类性能不佳。元学习以良好的知识迁移及快速泛化能力成为解决小样本图像分类问题的有效途径。文献“Snell J,Swersky K,ZemelR.Prototypical networks for few shot learning[C]//Advances in NeuralInformation Processing Systems.2017:4077-4087.”,在元学习得到的嵌入空间中采用非参数化的距离度量进行分类;文献“Finn C,Abbeel P,Levine S.Modelagnosticmetalearning for fast adaptation of deep networks[C]//Proceedings of the 34thInternational Conference on Machine Learning Volume 70.JMLR.org,2017:1126-1135.”,在元学习得到的特征基础上训练任务特定的线性分类器进行分类。然而,采用非参数化的距离度量判别能力有限,而参数化的线性分类器容易陷入过拟合。这些问题限制了小样本图像分类的性能。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度注意力度量的小样本图像分类方法,首先,根据小样本任务中的少量标注样本构建跨类样本对;然后,使用变分自编码器建立以跨类样本对为条件的多模态权重分布;接着,根据多模态权重分布采样生成深度度量网络;最后,使用生成的深度度量网络进行小样本图像分类。本发明方法根据任务描述信息生任务自适应的深度度量,解决了非参数化距离度量导致判别能力不足以及参数化的线性分类器容易过拟合的问题。采用端到端的元学习方式,避免了训练任务特定的分类器带来的时间开销,在小样本图像分类中取得了较好的分类效果。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:对于标准的N-wayK-shot小样本图像分类任务包含一个支持样本集和一个查询样本集/>其中,支持样本集/>包含N个类别,每个类别有K个标记样本,用于提供监督信息;查询样本集/>由来自支持样本集中相同的N个类别的未标记样本组成,用于进行性能测试;
步骤2:根据任务的支持样本集/>构建跨类样本对:
其中,表示由ResNet-12构成的基本嵌入模块/>得到的第n类的第k个支持样本的深度特征,/>表示由基本嵌入模块/>得到的第d类的第l个支持样本的深度特征,/>表示样本/>的标注信息,/>表示第n个类别的第j个跨类样本对,Concat(·)表示沿着通道维度进行拼接,j=1,...,K2(N-1);
步骤3:将每个跨类样本对输入差异性编码器中推理潜在高斯分布的参数;
将第n个类别的所有跨类样本对作为第n个类别的描述信息,然后计算编码结果的均值和标准差/>
其中表示差异性编码器;
通过为N个类别计算和/>获得N个潜在的高斯分布,即/>对于N个潜在高斯分布/>中的每一个进行随机采样并将采样向量拼接起来作为多模态权重分布di
其中表示由/>产生的随机采样,/>是标准正态分布,⊙表示点乘;
所述差异性编码器由三个串行的分别包括512、256及64个滤波器堆叠的3×3卷积块构成,每个卷积块均使用BN进行归一化、ReLU进行非线性激活及2×2池化核进行最大值池化;
步骤4:根据多模态权重分布,使用权重生成器生成深度度量网络的参数;
步骤4-1:构建深度度量网络,由一个注意力层、一个卷积层和一个全连接层组成;为每个任务生成一个深度度量网络;
步骤4-2:用多个层级感知权重生成器分别为深度度量网络中的每一层生成权重参数;
对于深度度量网络中的注意力层,根据每个类别的潜在高斯分布产生的随机采样使用感知权重生成器/>生成注意力权重参数,即:
其中表示任务/>的第n个类别对应的注意力参数;
对于卷积层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中,wi表示任务对应的卷积层参数;
对于全连接层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中为任务/>的全连接层权重项,bi为偏置项;
对每个卷积层参数wi的内核都通过范数进行归一化;对于全连接层中生成的权重项/>沿超平面进行归一化;
所述3个感知权重生成器均依次由三个单层全连接网络连接构成,并分别使用LeakRelu进行激活;
步骤5:根据生成的深度度量网络进行小样本图像分类;
步骤5-1:首先根据类别原型和查询样本进行拼接,得到其中类别原型由该类别所有支持样本取平均得到,/>表示查询样本通过基本嵌入模块/>获得的深度特征;
步骤5-2:使用注意力层对施加类别感知的注意力,即:
其中表示注意力特征;
步骤5-3:使用卷积层和全连接层将注意力特征映射成一个相似度得分:
其中表示卷积操作,ReLu(·)表示激活函数;/>是查询图像/>和类别原型/>之间的相似度得分;
给定查询样本与所有类别原型之间的相似度分数,将具有最大相似度得分的类别作为该查询样本的预测标签
步骤5-4:使用预测标签与样本对应的真实标签/>之间的交叉熵损失H(·)作为目标函数,即:
根据目标函数使用随机梯度下降法通过迭代多个小样本任务进行训练。
本发明的有益效果如下:
本发明方法根据任务描述信息生任务自适应的深度度量,解决了非参数化距离度量导致判别能力不足以及参数化的线性分类器容易过拟合的问题。采用端到端的元学习方式,避免了训练任务特定的分类器带来的时间开销。本发明方法在小样本图像分类中取得了较好的分类效果。
具体实施方式
下面结合实施例对本发明进一步说明。
一种基基于深度注意力度量的小样本图像分类方法,包括如下步骤:
步骤1:对于标准的N-wayK-shot小样本图像分类任务包含一个支持样本集和一个查询样本集/>其中,支持样本集/>包含N个类别,每个类别有K个标记样本,用于提供监督信息;查询样本集/>由来自支持样本集中相同的N个类别的未标记样本组成,用于进行性能测试;
步骤2:由于支持样本的数量有限(例如,N×K),获得的潜在高斯分布是不准确的,尤其是当权重分布较为复杂时。此外,单独考虑每个样本会导致难以挖掘有助于生成深度度量的类间判别信息。为此,根据任务的支持样本集/> 构建跨类样本对:
其中,表示由ResNet-12构成的基本嵌入模块/>得到的第n类的第k个支持样本的深度特征,/>表示由基本嵌入模块/>得到的第d类的第l个支持样本的深度特征,表示样本/>的标注信息,/>表示第n个类别的第j个跨类样本对,Concat(·)表示沿着通道维度进行拼接,j=1,...,K2(N-1);
步骤3:将每个跨类样本对输入差异性编码器中推理潜在高斯分布的参数;
将第n个类别的所有跨类样本对作为第n个类别的描述信息,然后计算编码结果的均值和标准差/>
其中表示差异性编码器;
通过为N个类别计算和/>获得N个潜在的高斯分布,即/>对于N个潜在高斯分布/>中的每一个进行随机采样并将采样向量拼接起来作为多模态权重分布di
其中表示由/>产生的随机采样,/>是标准正态分布;
所述差异性编码器由三个分别包括512、256及64个滤波器堆叠的3×3卷积块构成,并分别使用BN进行归一化、ReLU进行非线性激活及2×2池化核进行最大值池化;
步骤4:根据多模态权重分布,使用权重生成器生成深度度量网络的参数;
步骤4-1:构建深度度量网络,由一个注意力层、一个卷积层和一个全连接层组成;为每个任务生成一个深度度量网络;
步骤4-2:用多个层级感知权重生成器分别为深度度量网络中的每一层生成权重参数;
对于深度度量网络中的注意力层,根据每个类别的潜在高斯分布产生的随机采样使用感知权重生成器/>生成注意力权重参数,即:
其中表示任务/>的第n个类别对应的注意力参数;
对于卷积层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中,wi表示任务对应的卷积层参数;
对于全连接层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中为任务/>的全连接层权重项,bi为偏置项;
对卷积层中的每个内核都通过范数(即‖·‖2)进行归一化;对于全连接层中生成的权重项/>沿超平面进行归一化;
所述3个感知权重生成器均依次由三个单层全连接网络连接构成,并分别使用LeakRelu进行激活;
步骤5:根据生成的深度度量网络进行小样本图像分类;
步骤5-1:首先根据类别原型和查询样本进行拼接,得到其中类别原型由该类别所有支持样本取平均得到,/>表示查询样本通过基本嵌入模块/>获得的深度特征;
步骤5-2:使用注意力层对施加类别感知的注意力,即:
其中表示注意力特征;
步骤5-3:使用卷积层和全连接层将注意力特征映射成一个相似度得分:
其中表示卷积操作,ReLu(·)表示激活函数;/>是查询图像/>和类别原型/>之间的相似度得分;
给定查询样本与所有类别原型之间的相似度分数,将具有最大相似度得分的类别作为该查询样本的预测标签
步骤5-4:使用预测标签与样本对应的真实标签/>之间的交叉熵损失H(·)作为目标函数,即:
根据目标函数使用随机梯度下降法通过迭代多个小样本任务进行训练。
在测试阶段,针对每个采样的小样本任务,首先将所有样本输入到基本嵌入模块中提取深度特征,然后将支持样本集输入到元学习器中生成深度度量网络的参数,最后使用深度度量网络计算查询样本集与每个类别的原型之间的相似度得分,并将相似度得分最高的类别作为该查询样本的预测标签。
在小样本图像分类任务中,本发明方法获得较好的分类表现。以miniImageNet数据集为例,在5-way 1-shot和5-way 5-shot任务中,本发明方法的准确率分别能够达到60.39%和73.84%。相比于非参数化距离度量的基准分别提高了4.1%和4.3%。

Claims (1)

1.一种基基于深度注意力度量的小样本图像分类方法,其特征在于,包括如下步骤:
步骤1:对于标准的N-wayK-shot小样本图像分类任务包含一个支持样本集/>和一个查询样本集/>其中,支持样本集/>包含N个类别,每个类别有K个标记样本,用于提供监督信息;查询样本集/>由来自支持样本集中相同的N个类别的未标记样本组成,用于进行性能测试;
步骤2:根据任务的支持样本集/>构建跨类样本对:
其中,表示由ResNet-12构成的基本嵌入模块/>得到的第n类的第k个支持样本的深度特征,/>表示由基本嵌入模块/>得到的第d类的第l个支持样本的深度特征,/>表示样本/>的标注信息,/>表示第n个类别的第j个跨类样本对,Concat(·)表示沿着通道维度进行拼接,j=1,...,K2(N-1);
步骤3:将每个跨类样本对输入差异性编码器中推理潜在高斯分布的参数;
将第n个类别的所有跨类样本对作为第n个类别的描述信息,然后计算编码结果的均值和标准差/>
其中表示差异性编码器;
通过为N个类别计算和/>获得N个潜在的高斯分布,即/>对于N个潜在高斯分布/>中的每一个进行随机采样并将采样向量拼接起来作为多模态权重分布di
其中表示由/>产生的随机采样,/>是标准正态分布,⊙表示点乘;
所述差异性编码器由三个串行的分别包括512、256及64个滤波器堆叠的3×3卷积块构成,每个卷积块均使用BN进行归一化、ReLU进行非线性激活及2×2池化核进行最大值池化;
步骤4:根据多模态权重分布,使用权重生成器生成深度度量网络的参数;
步骤4-1:构建深度度量网络,由一个注意力层、一个卷积层和一个全连接层组成;为每个任务生成一个深度度量网络;
步骤4-2:用多个层级感知权重生成器分别为深度度量网络中的每一层生成权重参数;
对于深度度量网络中的注意力层,根据每个类别的潜在高斯分布产生的随机采样使用感知权重生成器/>生成注意力权重参数,即:
其中表示任务/>的第n个类别对应的注意力参数;
对于卷积层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中,wi表示任务对应的卷积层参数;
对于全连接层,根据多模态权重分布di使用感知权重生成器生成权重参数,即:
其中为任务/>的全连接层权重项,bi为偏置项;
对每个卷积层参数wi的内核都通过l2范数进行归一化;对于全连接层中生成的权重项沿超平面进行归一化;
所述3个感知权重生成器均依次由三个单层全连接网络连接构成,并分别使用LeakRelu进行激活;
步骤5:根据生成的深度度量网络进行小样本图像分类;
步骤5-1:首先根据类别原型和查询样本进行拼接,得到其中类别原型由该类别所有支持样本取平均得到,/>表示查询样本通过基本嵌入模块/>获得的深度特征;
步骤5-2:使用注意力层对施加类别感知的注意力,即:
其中表示注意力特征;
步骤5-3:使用卷积层和全连接层将注意力特征映射成一个相似度得分:
其中表示卷积操作,ReLu(·)表示激活函数;/>是查询图像/>和类别原型/>之间的相似度得分;
给定查询样本与所有类别原型之间的相似度分数,将具有最大相似度得分的类别作为该查询样本的预测标签
步骤5-4:使用预测标签与样本对应的真实标签/>之间的交叉熵损失H(·)作为目标函数,即:
根据目标函数使用随机梯度下降法通过迭代多个小样本任务进行训练。
CN202210400572.3A 2022-04-16 2022-04-16 一种基于深度注意力度量的小样本图像分类方法 Active CN114926702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210400572.3A CN114926702B (zh) 2022-04-16 2022-04-16 一种基于深度注意力度量的小样本图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210400572.3A CN114926702B (zh) 2022-04-16 2022-04-16 一种基于深度注意力度量的小样本图像分类方法

Publications (2)

Publication Number Publication Date
CN114926702A CN114926702A (zh) 2022-08-19
CN114926702B true CN114926702B (zh) 2024-03-19

Family

ID=82807152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210400572.3A Active CN114926702B (zh) 2022-04-16 2022-04-16 一种基于深度注意力度量的小样本图像分类方法

Country Status (1)

Country Link
CN (1) CN114926702B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131580B (zh) * 2022-08-31 2022-11-22 中国科学院空天信息创新研究院 基于注意力机制的空间目标小样本识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110020682A (zh) * 2019-03-29 2019-07-16 北京工商大学 一种基于小样本学习的注意力机制关系对比网络模型方法
WO2021022752A1 (zh) * 2019-08-07 2021-02-11 深圳先进技术研究院 一种多模态三维医学影像融合方法、系统及电子设备
CN112784921A (zh) * 2021-02-02 2021-05-11 西北工业大学 任务注意力引导的小样本图像互补学习分类算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110020682A (zh) * 2019-03-29 2019-07-16 北京工商大学 一种基于小样本学习的注意力机制关系对比网络模型方法
WO2021022752A1 (zh) * 2019-08-07 2021-02-11 深圳先进技术研究院 一种多模态三维医学影像融合方法、系统及电子设备
CN112784921A (zh) * 2021-02-02 2021-05-11 西北工业大学 任务注意力引导的小样本图像互补学习分类算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈晨 ; 王亚立 ; 乔宇 ; .任务相关的图像小样本深度学习分类方法研究.集成技术.2020,(第03期),第15-25 页. *

Also Published As

Publication number Publication date
CN114926702A (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
Su et al. Deep learning-based solar-cell manufacturing defect detection with complementary attention network
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
CN112381788B (zh) 一种基于双分支匹配网络的零部件表面缺陷增量检测方法
CN112926045B (zh) 一种基于逻辑回归模型的群控设备识别方法
CN112732921B (zh) 一种虚假用户评论检测方法及系统
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN105930792A (zh) 一种基于视频局部特征字典的人体动作分类方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN107392129A (zh) 基于Softmax的人脸检索方法和系统
CN114926702B (zh) 一种基于深度注意力度量的小样本图像分类方法
CN114898136B (zh) 一种基于特征自适应的小样本图像分类方法
CN116110089A (zh) 一种基于深度自适应度量学习的面部表情识别方法
CN111881906A (zh) 一种基于注意力机制图像检索的logo识别方法
Zhang Application of artificial intelligence recognition technology in digital image processing
CN114239384A (zh) 一种基于非线性度量原型网络的滚动轴承故障诊断方法
CN106570514A (zh) 一种基于词袋模型和支持向量机的汽车轮毂分类方法
CN108960005B (zh) 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统
CN112257600A (zh) 一种人脸识别方法及系统
CN108898157B (zh) 基于卷积神经网络的数值型数据的雷达图表示的分类方法
CN113705713B (zh) 一种基于全局和局部注意力机制的文本识别方法
CN116188445A (zh) 一种产品表面缺陷的检测定位方法、装置及终端设备
Ali et al. A robust CNN model for handwritten digits recognition and classification
CN116383747A (zh) 基于多时间尺度深度卷积生成对抗网络的异常检测方法
CN113158878B (zh) 一种基于子空间的异构迁移故障诊断方法、系统和模型

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant