CN110059718A - 基于多类多注意力机制的细粒度检测方法 - Google Patents
基于多类多注意力机制的细粒度检测方法 Download PDFInfo
- Publication number
- CN110059718A CN110059718A CN201910203138.4A CN201910203138A CN110059718A CN 110059718 A CN110059718 A CN 110059718A CN 201910203138 A CN201910203138 A CN 201910203138A CN 110059718 A CN110059718 A CN 110059718A
- Authority
- CN
- China
- Prior art keywords
- feature
- attention
- fine granularity
- output values
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本实施例提出了基于多类多注意力机制的细粒度检测方法,包括建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值;逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量;从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测。通过一个挤压式多激励模块提取注意感知特征,该模块由MAMC损失监督,该损失将正样本拉近到锚点,同时将负样本推开。该方法不需要边界框或部分注释,简化了处理步骤。
Description
技术领域
本实施例属于图像处理领域,尤其涉及基于多类多注意力机制的细粒度检测方法。
背景技术
图像的细粒度识别分类是计算机视觉领域的重要研究领域之一,图像的细粒度分类主要针对更为精细的子类来进行细致划分和区分,例如鸟类种类判别,车辆判别等等。细粒度识别要求寻找和划分相关的显著性特征,由于检测样本在特征上存在很高的相似度,因此这要求算法需要足够强的判别力来判断检测样本的细粒度特征并进行检测。
随着深度学习和大规模神经网络的发展,以及一些大规模数据库的开源,在细粒度分类上,深度学习方法已经逐渐替代了传统手工特征方法。传统的方法主要通过参数化和非参数化的方法对细粒度特征进行定位和表示。这些工作主要关注在如何将图像上不同的显著性区域组合进行更有效地分类和识别。随着深度神经网络的发展,对于细粒度部件的检测和定位得到了更好的发展。但是这些强监督的深度学习方法需要巨大的计算量,依赖于手工对特征进行标注。这些繁琐的过程导致强监督的方法很难具有一般性和普及性。因此,弱监督的方法得到了越来越多的关注和应用。例如,在细粒度分类中的序列化决策过程中引入注意力机制的方法,或者采用无标注的细粒度特征选择方法。上述方式在一定程度上避免了强监督方法的缺陷,但是仍然存在一些不足。首先,这些方法依赖于额外的特征提取和定位的步骤,这些步骤需要很大的计算量。其次,它们的训练过程及其繁琐,需要两步甚至多步来完成训练。
发明内容
为了解决现有技术中存在的缺点和不足,本实施例提出了基于多类多注意力机制的细粒度检测方法,通过一个挤压式多激励(OSME)模块提取注意感知特征,该模块由MAMC损失监督,该损失将正样本拉近到锚点,同时将负样本推开。该方法不需要边界框或部分注释,简化了处理步骤。
所述检测方法,包括:
建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值;
逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量;
从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测。
可选的,所述建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值,包括:
构建基于聚合跨空间维度W×H的特征映射U;
将输入图像中每个通道内的数值导入公式一中,计算得到每个通道的通道输出值
式中,w表示特征第一个维度大小,h表示特征的第二个维度的大小,uc(w,h)表示最后一层输出的第c个特征上(w,h)位置上的值。
可选的,所述逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量,包括:
确定针对通道输出值的第一筛选权重W1 p和第二筛选权重
基于确定的筛选权重结合对特征映射U进行加权运算,得到注意力映射Sp;
针对注意力映射确定链接权重基于链接权重确定对应输入图像的特征向量fp;
其中,p为特征向量数目,取值范围为正整数。
可选的,所述从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测,包括:
从已有的特征向量中选取第i类第p个注意力区域特征fi p作为锚点,将剩余特征向量分为四组集合,分别为相同注意力相同类别的特征Ssasc、相同注意力不同类别的特征Ssadc、不同注意力相同类别的特征Sdasc以及不同注意力不同类别的特征Sdadc;
基于目标不同,分别定义三种状态下的正样本集合和负样本集合,构建对应三种状态的最小损失函数;
对最小损失函数进行迭代,确定最小损失函数取最小值时的参数值,将得到的参数值作为细粒度分类依据。
本实施例提供的技术方案带来的有益效果是:
通过一个挤压式多激励(OSME)模块提取注意感知特征,该模块由多注意力多类别约束(multi-attention multi-class constraint,MAMC)损失监督,该损失将正样本拉近到锚点,同时将负样本推开。该方法不需要边界框或部分注释,简化了处理步骤。
附图说明
为了更清楚地说明本实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实施例提出了基于多类多注意力机制的细粒度检测方法的流程示意图。
具体实施方式
为使本实施例的结构和优点更加清楚,下面将结合附图对本实施例的结构作进一步地描述。
实施例一
本实施例提出了基于多类多注意力机制的细粒度检测方法,如图1所示,所述检测方法,包括:
11、建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值;
12、逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量;
13、从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测。
在实施中,本实施例所提出的方案使用了一种新的CNN的多注意多类约束用于细粒度图像识别。该网络通过一个挤压式多激励(OSME)模块提取注意感知特征,该模块由MAMC损失监督,该损失将正样本拉近到锚点,同时将负样本推开。该方法不需要边界框或部分注释,并且可以在一个阶段中进行端到端的训练。“特征提取-特征筛选-损失函数运算”这三步是任何方法都必须的三个过程,用于训练整个网络来进行识别。
本实施例提出的细粒度检测方法与现有方法的区别在于整个网络的结构,经过多个网络训练最后组合成一个大网络,这是多阶段的。而从头开始就只训练一个网络,这是单阶段的,也称为端到端处理。
执行步骤11的前提条件为调用卷积神经网络实现细粒度图像中的特征提取,由于该部分的算法较为成熟,因此本申请中并未对该部分内容进行详述。
具体的,步骤11提出的处理步骤包括:
111、构建基于聚合跨空间维度W×H的特征映射U;
112、将输入图像中每个通道内的数值导入公式一中,计算得到每个通道的通道输出值
式中,w表示特征第一个维度大小,h表示特征的第二个维度的大小,uc(w,h)表示最后一层输出的第c个特征上(w,h)位置上的值。
步骤11作为前文中提及到的“挤压”步骤,结合已知的特征得到每一个通道进行平均运算得到一个平均值,将得到的平均值作为代表每一个通道的特征值,将众多特征值组合构成z=[z1,…zc],c为是实数。
这里得到的z用于后续步骤中的多重激励处理步骤。
基于步骤11的处理结果,步骤12为多重机理处理过程,具体包括:
121、确定针对通道输出值的第一筛选权重W1 p和第二筛选权重
122、基于确定的筛选权重结合对特征映射U进行加权运算,得到注意力映射Sp;
123、针对注意力映射确定链接权重基于链接权重确定对应输入图像的特征向量fp;
其中,p为特征向量数目,取值范围为正整数。
在实施中,在第二个多激励步骤中,每个注意机制独立地在z上采用一种筛选机制p=1,…P:
式中,σ参考激活函数Sigmoid,该函数用于将输入映射成0到1之间的概率分布,δ参考激活Relu函数,该函数将输入映射到一个大于0的值。式中的第一筛选权重和第二筛选权重用于形成降维增维层。筛选权重的W表示一个参数矩阵,一共有两种,因此下角标为1和2,角标表示筛选机制,不同筛选机制对应不同的参数矩阵。
由于Sigmoid函数的特性,每个mp对通道之间的非互斥关系进行编码。因此,使用它来重新加权原始特征映射U的层数,将上述U中的向量和mp中的向量对应相乘,得到新的向量Sp
为了提取特定的注意力特征,将每个注意力映射Sp提供给一个链接权重为的全连接层:是参数矩阵,其下标接上面的W表示第三种参数矩阵,p代表对应Sp有p个对应的参数矩阵,全连接层将原本维度为W×H×C的张量Sp,映射成D维的张量,函数vec(·)将矩阵扁平化为向量的具体位置。
简而言之,提出的OSME模块试图通过在最后一个残差块上添加几层来提取每个图像x的P个特征向量示对应输入Sp的全连接层的输出
这里所添加的层指添加卷积层,卷积神经网络是一层一层构建的,残差块为其中某层的类型。x抽象地表示网络的输入,也就是细粒度图像。
在步骤12所示的多激励操作执行结束后,需要执行如步骤13所示的优化迭代步骤,具体包括:
131、从已有的特征向量中选取第i类第p个注意力区域特征fi p作为锚点,将剩余特征向量分为四组集合,分别为相同注意力相同类别的特征Ssasc、相同注意力不同类别的特征Ssadc、不同注意力相同类别的特征Sdasc以及不同注意力不同类别的特征Sdadc;
132、基于目标不同,分别定义三种状态下的正样本集合和负样本集合,构建对应三种状态的最小损失函数;
133、对最小损失函数进行迭代,确定最小损失函数取最小值时的参数值,将得到的参数值作为细粒度分类依据。
在实施中,接着为了构建图像内部注意力的关系以及类别间注意力的关系,每个表示每个待训练样本的集合batch中采样2N个样本,即采样N个类别,每个类别有2个样本。随机选取2NP个特征,通过选择第i类的第p个注意力区域特征fi p作为锚点anchor,然后将剩余的特征分为四组,具体如下:
相同注意力相同类别的特征,Ssasc(fi p)=(fi p+)
相同注意力不同类别的特征,
不同注意力相同类别的特征,Sdasc(fi p)=(fi q,fi q+)q≠p
不同注意力不同类别的特征,
这里以Ssasc(fi p)为例,它表示与作为anchor的特征fi p相同注意力相同类别的特征的集合,式子中的大写字母S表示集合;sasc分别指same attention same class,在下面的式子中的d表示different;fi p中的f表示特征,i以及下面式子中的j表示图像类别,p以及下面式子中的q表示图像不同注意力区域(例如鸟的头部,与脚);i不等于j表示不同类别,p不等于q等于不同注意力区域
通过度量学习来深度网络这四组特征的关系,通过这些特征来构建三种类型的triplet。相同注意力相同类别作为正样本:和最相近的特征就是其他的特征应该和anchor有一个较大的距离。
令P表示positive,N表示negative,则正样本集合和负样本集合定义为:
Psasc=Ssasc,Nsace=Ssadc∪Sdadc∪Sdadc
相同注意力不同类别作为正样本:从相同区域不同类别提取的特征应该比不同区域不同类别提取的特征更近。所以正样本和负样本集合定义为:
Psadc=Ssadc,Nsadc=Sdadc
不同注意力相同类别作为正样本:不同区域相同类别的特征应该比不同区域不同类别的特征更近,所以正样本和负样本集合定义为:
Pdasc=Sdadc,Ndasc=Sdadc
受度量学习的最新进展启发,通过最小化n对损失来实现这三个约束。
L表示loss function,np表示n pair即为n对输入的图像,输入的图像格式为一类两张图片,故n表示类别数目,在式子中的T表示矩阵转置,f+表示正样本集合中的某一个特征,f-表示负样本集合中的某一个特征。
每批培训Batch个样本,MAMC共同最小化将SoftMax损失和N-pair损失重量参λ,加入约束条件,因此总的损失函数为:
表示使用相同注意力相同类别的特征,的约束条件的Lnp其他的相同。
上述实施例中的各个序号仅仅为了描述,不代表各部件的组装或使用过程中的先后顺序。
以上所述仅为本实施例的实施例,并不用以限制本实施例,凡在本实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本实施例的保护范围之内。
Claims (4)
1.基于多类多注意力机制的细粒度检测方法,其特征在于,所述检测方法,包括:
建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值;
逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量;
从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测。
2.根据权利要求1所述的基于多类多注意力机制的细粒度检测方法,其特征在于,所述建立特征映射,将提取到的特征导入特征映射中进行计算得到代表输入图像中每个通道的通道输出值,包括:
构建基于聚合跨空间维度W×H的特征映射U;
将输入图像中每个通道内的数值导入公式一中,计算得到每个通道的通道输出值
式中,w表示特征第一个维度大小,h表示特征的第二个维度的大小,uc(w,h)表示最后一层输出的第c个特征上(w,h)位置上的值。
3.根据权利要求2所述的基于多类多注意力机制的细粒度检测方法,其特征在于,所述逐步确定针对通道输出值的筛选权重,结合得到的筛选权重在卷积神经网络中得到对应输入图像的特征向量,包括:
确定针对通道输出值的第一筛选权重W1 p和第二筛选权重
基于确定的筛选权重结合对特征映射U进行加权运算,得到注意力映射Sp;
针对注意力映射确定链接权重基于链接权重确定对应输入图像的特征向量fp;
其中,p为特征向量数目,取值范围为正整数。
4.根据权利要求1所述的基于多类多注意力机制的细粒度检测方法,其特征在于,所述从特征向量中进行随机挑选,基于挑选结果构建基于注意力类别的样本集合,构建对应样本集合的最小损失函数,对最小损失函数进行优化处理完成细粒度检测,包括:
从已有的特征向量中选取第i类第p个注意力区域特征fi p作为锚点,将剩余特征向量分为四组集合,分别为相同注意力相同类别的特征Ssasc、相同注意力不同类别的特征Ssadc、不同注意力相同类别的特征Sdasc以及不同注意力不同类别的特征Sdadc;
基于目标不同,分别定义三种状态下的正样本集合和负样本集合,构建对应三种状态的最小损失函数;
对最小损失函数进行迭代,确定最小损失函数取最小值时的参数值,将得到的参数值作为细粒度分类依据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910203138.4A CN110059718A (zh) | 2019-03-18 | 2019-03-18 | 基于多类多注意力机制的细粒度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910203138.4A CN110059718A (zh) | 2019-03-18 | 2019-03-18 | 基于多类多注意力机制的细粒度检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110059718A true CN110059718A (zh) | 2019-07-26 |
Family
ID=67316286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910203138.4A Pending CN110059718A (zh) | 2019-03-18 | 2019-03-18 | 基于多类多注意力机制的细粒度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110059718A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688511A (zh) * | 2019-08-15 | 2020-01-14 | 深圳久凌软件技术有限公司 | 细粒度图像检索方法、装置、计算机设备及存储介质 |
CN112149720A (zh) * | 2020-09-09 | 2020-12-29 | 南京信息工程大学 | 一种细粒度车辆类型识别方法 |
CN117270476A (zh) * | 2023-10-24 | 2023-12-22 | 清远欧派集成家居有限公司 | 基于智慧工厂的生产控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460335A (zh) * | 2018-01-26 | 2018-08-28 | 百度在线网络技术(北京)有限公司 | 视频细粒度识别方法、装置、计算机设备及存储介质 |
CN108960261A (zh) * | 2018-07-25 | 2018-12-07 | 扬州万方电子技术有限责任公司 | 一种基于注意力机制的显著物体检测方法 |
CN109002845A (zh) * | 2018-06-29 | 2018-12-14 | 西安交通大学 | 基于深度卷积神经网络的细粒度图像分类方法 |
CN109284670A (zh) * | 2018-08-01 | 2019-01-29 | 清华大学 | 一种基于多尺度注意力机制的行人检测方法及装置 |
CN109388706A (zh) * | 2017-08-10 | 2019-02-26 | 华东师范大学 | 一种问题细粒度分类方法、系统与装置 |
-
2019
- 2019-03-18 CN CN201910203138.4A patent/CN110059718A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388706A (zh) * | 2017-08-10 | 2019-02-26 | 华东师范大学 | 一种问题细粒度分类方法、系统与装置 |
CN108460335A (zh) * | 2018-01-26 | 2018-08-28 | 百度在线网络技术(北京)有限公司 | 视频细粒度识别方法、装置、计算机设备及存储介质 |
CN109002845A (zh) * | 2018-06-29 | 2018-12-14 | 西安交通大学 | 基于深度卷积神经网络的细粒度图像分类方法 |
CN108960261A (zh) * | 2018-07-25 | 2018-12-07 | 扬州万方电子技术有限责任公司 | 一种基于注意力机制的显著物体检测方法 |
CN109284670A (zh) * | 2018-08-01 | 2019-01-29 | 清华大学 | 一种基于多尺度注意力机制的行人检测方法及装置 |
Non-Patent Citations (2)
Title |
---|
MING SUN等: "Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition", 《ECCV》 * |
罗建豪等: "基于深度卷积特征的细粒度图像分类研究综述", 《自动化学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688511A (zh) * | 2019-08-15 | 2020-01-14 | 深圳久凌软件技术有限公司 | 细粒度图像检索方法、装置、计算机设备及存储介质 |
CN112149720A (zh) * | 2020-09-09 | 2020-12-29 | 南京信息工程大学 | 一种细粒度车辆类型识别方法 |
CN117270476A (zh) * | 2023-10-24 | 2023-12-22 | 清远欧派集成家居有限公司 | 基于智慧工厂的生产控制方法及系统 |
CN117270476B (zh) * | 2023-10-24 | 2024-03-08 | 清远欧派集成家居有限公司 | 基于智慧工厂的生产控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN107644426A (zh) | 基于金字塔池化编解码结构的图像语义分割方法 | |
CN110135295A (zh) | 一种基于迁移学习的无监督行人重识别方法 | |
CN108399406A (zh) | 基于深度学习的弱监督显著性物体检测的方法及系统 | |
CN108090472B (zh) | 基于多通道一致性特征的行人重识别方法及其系统 | |
CN107180248A (zh) | 基于联合损失增强网络的高光谱图像分类方法 | |
CN109657715B (zh) | 一种语义分割方法、装置、设备及介质 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN110059718A (zh) | 基于多类多注意力机制的细粒度检测方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN105894046A (zh) | 卷积神经网络训练及图像处理的方法和系统、计算机设备 | |
CN108446689A (zh) | 一种人脸识别方法 | |
CN108960260B (zh) | 一种分类模型生成方法、医学影像图像分类方法及装置 | |
CN110807485B (zh) | 基于高分遥感影像二分类语义分割图融合成多分类语义图的方法 | |
CN111931867B (zh) | 基于轻量级模型的新冠肺炎x射线图像分类方法及系统 | |
CN110555461A (zh) | 基于多结构卷积神经网络特征融合的场景分类方法及系统 | |
CN115661777A (zh) | 一种联合语义的雾天道路目标检测算法 | |
CN117237559A (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN106203373A (zh) | 一种基于深度视觉词袋模型的人脸活体检测方法 | |
CN104850864A (zh) | 一种基于卷积神经网络的非监督图像识别方法 | |
CN113033345B (zh) | 基于公共特征子空间的v2v视频人脸识别方法 | |
CN115759190A (zh) | 一种跨域黑盒模型逆向攻击方法 | |
CN111666985B (zh) | 一种基于dropout的深度学习对抗样本图像分类防御方法 | |
Pan et al. | Pseudo-set frequency refinement architecture for fine-grained few-shot class-incremental learning | |
CN114049500A (zh) | 基于元学习重加权网络伪标签训练的图像评价方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190726 |