CN114170426A - 一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 - Google Patents
一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 Download PDFInfo
- Publication number
- CN114170426A CN114170426A CN202111310276.6A CN202111310276A CN114170426A CN 114170426 A CN114170426 A CN 114170426A CN 202111310276 A CN202111310276 A CN 202111310276A CN 114170426 A CN114170426 A CN 114170426A
- Authority
- CN
- China
- Prior art keywords
- feature
- training
- class
- learning
- rare
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Bioinformatics & Computational Biology (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型。现有的小样本学习方法大都忽略了特征空间的特殊性与迁移性,本发明则重点关注于此,构建的特征存储与筛选模块让前一阶段预训练中的特征能被后一阶段的元学习充分利用。首先,构建一个传统的深度学习神经网络进行预训练,对类似任务的非稀有类别数据集进行学习,冻结预训练模型的参数并存储预训练样本中每个类别的特征原型以及特征方差。接下来,通过Transformer编码当前特征与上一阶段选择出来的类别原型之间的关系,进而生成基于当前特征的新特征用于小样本分类器的分类。并在元学习过程中引入了可学习的代价敏感函数,从而使网络对稀有类别的样本更加具有敏感性。
Description
技术领域
本发明属于深度学习图像处理领域,尤其涉及融合了注意力方法的小样本医学图像分类算法。
背景技术
深度学习是属于机器学习领域中的一个研究方向,来源于对人工神经网络的研究,通过模拟人脑的结构构建多隐层,在经过大量的数据集训练之后,可以学习到丰富的特征。深度学习近年来不断取得重大进展,在诸多领域得到了应用,在计算机视觉领域的图像分类、目标识别、图像分割、图像融合等任务中,深度学习都发挥着重要的作用。
小样本学习即利用过去的知识,在只有少量标注的训练样本的情况下,能够正确地区分测试样本。而解决小样本问题的一种核心思路称之为元学习,元学习的关键概念是learning-to-learn,即从过去学习的知识中进行总结,而后在面对新的未知的样本时,表现出来较强的辨别能力,这一特性与人类的学习方式十分接近。
Transformer于2017年被提出,它抛弃了传统的CNN和RNN,整个网络结构完全由自注意力机制(Self-Attention)和前馈神经网络(FFN)组成。一个基于Transformer的可训练的神经网络可以通过堆叠Transformer的形式进行搭建。Transformer最早应用于自然语言处理与,近年来在计算机视觉领域也得到了大量的应用。
发明内容
本发明通过预训练和元学习两个阶段的训练过程。其中,重点关注了医学图像的特征,提出了基于高斯分布假设的特征选择方法以解决特征的特殊性与迁移性问题,预训练网络学习到的特征分布映射为类高斯分布,并被存储在特征库(feature bank)中;在分类器学习方面,提出了基于注意力机制的分类器元学习方法以解决第一阶段获取到的特征在第二阶段的利用问题。其中,在元学习过程中引入了可学习的代价敏感函数,帮助网络更有效地解决稀有肿瘤类别小样本的分类问题。
技术方案
本发明公开了一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型。现有的小样本学习方法大都忽略了特征空间的特殊性与迁移性,本发明则重点关注于此,构建的特征存储与筛选模块让前一阶段预训练中的特征能被后一阶段的元学习充分利用。首先,构建一个传统的深度学习神经网络进行预训练,对类似任务的数据集进行学习,冻结预训练模型的参数并存储预训练样本中每个类别的特征原型以及特征方差。接下来,通过Transformer编码当前特征与上一阶段选择出来的类别原型之间的关系,进而生成基于当前特征的新特征用于小样本分类器的分类。并在元学习过程中引入了代价敏感函数,从而使网络对稀有类别的样本更加具有敏感性。
具体包括以下步骤:
S1,构建获取稀有肿瘤类别小样本数据集并进行预处理,该数据集根据实际问题进行收集;
S2,构建特征学习预训练网络对非稀有类别的数据集进行学习,训练出一个强大的预训练模型,并进行参数冻结和特征存储用于后续任务的利用,使用应用较为广泛、性能较强的Resnet50作为训练网络,使用交叉熵结合softmax分类器进行训练。
S3,提取特征并存储,在预训练阶段提取特征并存储在特征库中,之前学习到的特征将被分布映射为类高斯分布,每个类别的特征原型和方差存储在特征库中。
S4,构造特征筛选模块,通过计算当前特征与预训练特征空间内类别的特征原型的相似性,可以选择出与当前样本最为相近的k个预训练类别作为候选类别,实现后续特征的迁移与过渡。
S5,构造基于注意力机制的分类器元学习方法,Transformer通过上一步的特征集来编码当前样本特征与筛选出的类别原型的关系,完成特征迁移。
S6,在元学习的分类过程中引入代价敏感函数,从而使网络对稀有类别的样本更具有敏感性,通过设置范围让权重在区间内自己进行学习取得合适的值,以实现对不同样本的不同敏感程度
其中,上述数据集图像预处理过程S1中,具体包括以下步骤:
S11,读取数据集中的图片;
S12,将原始图随机长宽比裁剪,并resize到224*224大小
S13,按照概率p=0.5进行随机水平翻转
S14,修改亮度、对比度和饱和度,进行随机色彩波动
S15,进行正则化处理
步骤(2)中构建特征学习预训练网络对非稀有类别的数据集进行学习,训练出一个强大的预训练模型,并进行参数冻结和特征存储,用于后续任务的利用;该预训练模型使用应用较为广泛、性能较强的Resnet50作为训练网络,使用交叉熵结合softmax分类器进行训练。
上述步骤S3中,在预训练阶段结束后引入额外的特征存储模块:特征库(featurebank),预训练网络学习到的特征将被分布映射为类高斯分布,并存储在特征库中。具体包括以下步骤:
S31,每个类别的特征通过power transform进行分布映射为类高斯分布:
S32,为对应类别计算特征均值和特征方差,计算公式如下:
S33,假设预训练过程中有n个类别,那么将n个对应类别的特征均值和特征方差存储到特征库中,每个类别占据特征库的一栏。
上述步骤S4中,通过计算当前特征与预训练特征空间内类别的特征原型的相似性,可以选择出与当前样本最为相近的k个预训练类别作为候选类别,实现后续特征的迁移与过渡。具体包括以下步骤:
S41,计算当前特征与预训练特征空间内类别的特征原型的相似性,相似度计算公式表示为:
S42,为了减少网络的开销,选择与当前样本特征q最相似的特征库中前k个特征原型及对应的特征方差(μi,δi),将这些特征组成新的特征集,用于下一阶段transformer的输入。
上述步骤S5中,构造基于注意力机制的分类器元学习方法,预训练过程中网络学习到的backbone将被固定,本步骤只对Transformer和分类器的参数进行更新。具体包括以下步骤:
S51,选取实际需要分类的任务,构建support set和query set。
S52,通过之前预训练阶段训练好的网络,固定BackBone,提取出当前输入的特征。
S53,通过步骤S4的特征筛选,将当前输入特征与k个最相似的特征一起输入到transformer中。
S54,训练transformer的过程中,通过高斯采样的方式模拟每个被选择类别在特征空间内的表达形式,新生成的特征可以表示为qi~N(μi,δi)。
S55,Transformer编码当前特征与上一步筛选出来的类别原型之间的关系,完成特征迁移,进而通过Transformer的Decoder生成基于当前特征的新特征用于小样本分类器的分类。
附图说明
图1是本发明实施例提供的基于代价敏感的稀有肿瘤类别小样本分类的算法模型流程图
图2是本发明的完整的网络结构示意图
图3是预训练与特征存储示意图
图4是特征筛选过程示意图
图5是分类器元学习过程示意图
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步信息说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明通过预训练和元学习两个阶段的训练过程。其中,重点关注了医学图像的特征,提出了基于高斯分布假设的特征选择方法以解决特征的特殊性与迁移性问题,预训练网络学习到的特征分布映射为类高斯分布,并被存储在特征库(feature bank)中;在分类器学习方面,提出了基于注意力机制的分类器元学习方法以解决第一阶段获取到的特征在第二阶段的利用问题。其中,在元学习过程中引入了可学习的代价敏感函数,帮助网络更有效地解决稀有肿瘤类别小样本的分类问题。
图2是本发明的完整的网络结构示意图,支持上述两个阶段的训练过程。
实施例
基于代价敏感的稀有肿瘤类别小样本分类的算法模型包括如下步骤,图1所示:
步骤一:构造数据集。首先是预训练阶段的数据集,预训练阶段的首要目的是学习到表达能力足够强大的特征空间,因此需要一个足够庞大的数据集,使用的是非稀有类别的数据集,选择具体的图像分类任务相似的数据集,其次是元学习阶段的数据集,该数据集就是实际需要分类任务的数据集。数据集来源于实际问题收集的稀有类别数据,并进行一些预处理操作,在读取数据集中的图片先将原始图随机长宽比裁剪,并resize到224*224大小,然后概率p=0.5进行随机水平翻转,修改亮度、对比度和饱和度,进行随机色彩波动,最后进行正则化处理。
步骤二:构建特征学习预训练网络,该网络是一个传统的深度学习神经网络,目的是通过对非稀有类别的数据集进行学习,使网络训练出一个强大的预训练模型来获得较好的参数,并进行参数冻结和特征存储用于后续任务的利用。使用应用较为广泛、性能较强的Resnet50作为训练网络,使用交叉熵结合softmax分类器进行训练。
步骤三:提取特征并存储,在预训练阶段结束后,引入额外的特征存储模块:特征库(feature bank),预训练网络学习到的特征将被分布映射为类高斯分布(Gaussian-Likedistribution),在特征库中仅需要存储每个类别的特征原型(均值μi)与特征方差(方差δi)即可。映射过程参考power transform,具体公式如下:
其中v表示每个类别的样本特征,∈和β为超参数,通过f(v)的变换,输出的特征就具备高斯分布的特性,一个类别的特征分布就可以仅通过两个值:均值和方差来表示。整体来看,在预训练阶段结束后,遍历预训练数据集中的所有训练样本,统计其对应的特征表示,然后为对应类别计算特征均值和特征方差,计算公式如下:
其中μi是第i类的特征均值,δi是第i类的特征方差。其中xj表示属于类别i的样本特征,即第j个样本的特征,f(xj)表示power transform后类高斯分布下的样本特征,ni表示属于类别i的样本数量。假设预训练过程中有n个类别,那么特征库中将存储n个对应类别的特征均值和特征方差。预训练和特征存储阶段可参考图3。
步骤四:构造特征筛选模块,通过计算当前特征与预训练特征空间内类别的特征原型的相似性,可以选择出与当前样本最为相近的k个预训练类别作为候选类别,实现后续特征的迁移与过渡。相似度计算公式表示为:
之所以选择最近的k个是为了减少网络的开销,特征筛选过程可参考图4。
通过特征筛选,在训练中可以获取当前样本特征q以及与之相似的特征库中前k个特征原型及对应的特征方差(μi,δi)。这些特征组成特征集,将被用于下一阶段transformer的输入。
步骤五:构造基于注意力机制的分类器元学习方法。此时的训练集和测试集是实际需要分类任务的训练集和测试集。前面预训练过程中网络学习到的backbone将被固定,本阶段只对Transformer和分类器的参数进行更新,网络的其他部位不进行学习。Transformer被用于结合当前特征与预训练特征空间内的特征,通过Transformer编码当前特征与上一步筛选出来的类别原型之间的关系,完成特征迁移,进而通过Transformer的Decoder生成基于当前特征的新特征用于小样本分类器的分类。
训练Transformer时通过高斯采样的方式来模拟每个被选择类别在特征空间内的表达形式,新生成的特征可以表示为qi~N(μi,δi)。通过这种方式的采样,预训练样本类别的特征可以更加丰富,从而提高结果的鲁棒性。分类器元学习过程可参考图5。
步骤六:引入稀有类别敏感性,在元学习的分类过程中引入代价敏感函数,从而使网络对稀有类别的样本更加具有敏感性,帮助网络有效地解决稀有肿瘤类别小样本分类问题。
以二分类为例,传统的交叉熵计算损失函数时,公式表示为:
L=-y+log(y+)-y-log(y-)
两个部分分别引入权重w1,w2:
L=-w1*y+log(y+)-w2*y-log(y-)
其中y+为正样本的概率,y-为负样本的概率,w1、w2分别为权重超参数;通过增加稀有类别的权重使得网络对稀有类别样本更具敏感性;
在元学习过程中,通过设置最大和最小值,让权重w1,w2在该区间内自行学习取得合适的值,以实现分类器对不同样本的不同敏感程度,从而达到对待稀有样本更加关注的目的。
Claims (7)
1.一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于,关注特征空间的特殊性与迁移性,构建的特征存储模块与筛选模块让前一阶段预训练中的特征能被后一阶段的元学习充分利用;构建一个传统的深度学习神经网络进行预训练,对类似任务的非稀有类别数据集进行学习,冻结预训练模型的参数并存储预训练样本中每个类别的特征原型以及特征方差;进而通过Transformer编码当前特征与上一阶段选择出来的类别原型之间的关系,进而生成基于当前特征的新特征用于小样本分类器的分类;同时在元学习过程中引入了代价敏感函数,从而使网络对稀有类别的样本更加具有敏感性。
2.根据权利要求1所述的一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于,具体包括以下步骤:
(1)构建获取稀有肿瘤类别小样本数据集并进行预处理,数据集根据实际问题进行收集;
(2)构建特征学习预训练网络学习非稀有类别的数据集并进行参数冻结和特征存储,用于后续任务的利用;
(3)提取特征并存储,在预训练阶段提取特征并存储在特征库中,之前学习到的特征将被分布映射为类高斯分布,每个类别的特征原型和方差存储在特征库中;
(4)构造特征筛选模块,通过计算当前特征与预训练特征空间内类别的特征原型的相似性,选择出与当前样本特征最为相近的k个预训练类别作为候选类别,实现后续特征的迁移与过渡;
(5)构造基于注意力机制的分类器元学习方法,Transformer通过上一步的特征集来编码当前样本特征与筛选出的类别原型的关系,完成特征迁移;
(6)在元学习的分类过程中引入可学习的代价敏感函数,从而使网络对稀有类别的样本更具有敏感性,通过设定最大和最小值,让权重在区间内进行学习取得合适的值,以实现对不同样本的不同敏感程度。
3.根据权利要求1所述的基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于:步骤(1)中,图像的预处理包括以下步骤:
(1.1)读取数据集中的图片;
(1.2)将原始图随机长宽比裁剪,并进行resize;
(1.3)进行随机水平翻转;
(1.4)修改亮度、对比度和饱和度,进行随机色彩波动;
(1.5)进行正则化处理。
4.根据权利要求1所述的基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于:步骤(3)中,预训练阶段得到的特征将被映射为类高斯分布并存储到特征库中,包括以下步骤:
(3.1)每个类别的特征通过power transform进行分布映射为类高斯分布:
其中v表示每个类别的样本特征,∈和β为超参数,通过f(v)将v的分布映射为类高斯分布;
(3.2)为对应类别计算特征均值和特征方差,计算公式如下:
其中μi是第i类的特征均值,δi是第i类的特征方差;xj表示第j个样本的特征,f(xj)表示Power Transform后类高斯分布下该样本的特征,ni表示属于类别i的样本数量;
(3.3)假设预训练过程中有n个类别,那么将n个对应类别的特征均值和特征方差存储到特征库中,每个类别占据特征库的一栏。
5.根据权利要求1所述的基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于:步骤(4)中,根据相似度选择出与当前样本特征最为相近的k个预训练类别作为候选类别,实现后续特征的迁移与过渡,包括以下步骤:
(4.1)计算当前特征与预训练特征空间内类别的特征原型的相似性,相似度计算公式表示为:
(4.2)为了减少网络的开销,选择与当前样本特征q最相似的特征库中前k个特征原型及对应的特征方差(μi,δi),将这些特征组成新的特征集,用于下一阶段transformer的输入。
6.根据权利要求1所述的基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于:步骤(5)中,构造基于注意力机制的分类器元学习方法包括以下步骤:
(5.1)选取实际需要分类的任务,构建support set和query set;
(5.2)通过之前预训练阶段训练好的网络,固定BackBone,提取出当前输入的特征;
(5.3)通过步骤S4的特征筛选,将当前输入特征与k个最相似的特征一起输入到transformer中;
(5.4)训练transformer的过程中,通过高斯采样的方式模拟每个被选择类别在特征空间内的表达形式,新生成的特征示为qi~N(μi,δi),即符合μi为均值、δi为方差的高斯分布;
(5.5)Transformer编码当前特征与上一步筛选出来的类别原型之间的关系,完成特征迁移,进而通过Transformer的Decoder生成基于当前特征的新特征用于小样本分类器的分类。
7.根据权利要求1所述的基于代价敏感的稀有肿瘤类别小样本分类的算法模型,其特征在于:步骤(6)中,在元学习的分类过程中引入代价敏感函数,从而使网络对稀有类别的样本更加具有敏感性,在传统二分类交叉熵的基础上分别引入权重w1,w2:
L=-w1*y+log(y+)-w2*y-log(y-)
其中y+为正样本的概率,y-为负样本的概率,w1、w2分别为权重超参数;通过增加稀有类别的权重使得网络对稀有类别样本更具敏感性;
在元学习过程中,通过设置最大和最小值,让权重在该区间内自行学习,从而取得合适的权重,以实现分类器对不同样本的不同敏感程度,从而达到对待稀有样本更加关注的目的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111310276.6A CN114170426A (zh) | 2021-11-04 | 2021-11-04 | 一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111310276.6A CN114170426A (zh) | 2021-11-04 | 2021-11-04 | 一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114170426A true CN114170426A (zh) | 2022-03-11 |
Family
ID=80478515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111310276.6A Pending CN114170426A (zh) | 2021-11-04 | 2021-11-04 | 一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114170426A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115831260A (zh) * | 2023-02-16 | 2023-03-21 | 天津大学 | 一种小样本分子毒性预测方法 |
-
2021
- 2021-11-04 CN CN202111310276.6A patent/CN114170426A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115831260A (zh) * | 2023-02-16 | 2023-03-21 | 天津大学 | 一种小样本分子毒性预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shao et al. | Feature learning for image classification via multiobjective genetic programming | |
CN111126386B (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
CN110837846B (zh) | 一种图像识别模型的构建方法、图像识别方法及装置 | |
CN111198959A (zh) | 一种基于卷积神经网络的两阶段图像检索方法 | |
KR20190138238A (ko) | 딥 블라인드 전의 학습 | |
CN108304573A (zh) | 基于卷积神经网络和监督核哈希的目标检索方法 | |
Gallo et al. | Image and text fusion for upmc food-101 using bert and cnns | |
CN112733866A (zh) | 一种提高可控图像文本描述正确性的网络构建方法 | |
CN111008224B (zh) | 一种基于深度多任务表示学习的时间序列分类和检索方法 | |
CN110349229A (zh) | 一种图像描述方法及装置 | |
Chen et al. | Automated design of neural network architectures with reinforcement learning for detection of global manipulations | |
CN112883931A (zh) | 基于长短期记忆网络的实时真假运动判断方法 | |
CN116563410A (zh) | 基于两级生成对抗网络的电气设备电火花图像生成方法 | |
CN114170426A (zh) | 一种基于代价敏感的稀有肿瘤类别小样本分类的算法模型 | |
CN114492581A (zh) | 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 | |
CN116543269B (zh) | 基于自监督的跨域小样本细粒度图像识别方法及其模型 | |
Song et al. | Srrm: Semantic region relation model for indoor scene recognition | |
CN111414863A (zh) | 一种增强型集成遥感影像分类方法 | |
Zheng et al. | Boundary adjusted network based on cosine similarity for temporal action proposal generation | |
CN115100694A (zh) | 一种基于自监督神经网络的指纹快速检索方法 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 | |
Du et al. | Deep neural networks with parallel autoencoders for learning pairwise relations: Handwritten digits subtraction | |
Golchha et al. | Quantum-Enhanced Support Vector Classifier for Image Classification | |
Ding et al. | Improving GAN-based feature extraction for hyperspectral images classification | |
Ge et al. | Multi-grained cascade adaboost extreme learning machine for feature representation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |