CN108154183A - 一种基于局部和深度特征集合的目标分类方法 - Google Patents
一种基于局部和深度特征集合的目标分类方法 Download PDFInfo
- Publication number
- CN108154183A CN108154183A CN201711423291.5A CN201711423291A CN108154183A CN 108154183 A CN108154183 A CN 108154183A CN 201711423291 A CN201711423291 A CN 201711423291A CN 108154183 A CN108154183 A CN 108154183A
- Authority
- CN
- China
- Prior art keywords
- layer
- feature
- depth
- classification
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于局部和深度特征集合的目标分类方法,其主要内容包括:深度卷积特征提取、局部特征和编码和分类器集合,其过程为,先从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量,然后利用费舍尔向量作为编码策略,对每个特征训练一个支持向量机(SVM),接着对分类器集合进行训练和测试,对输入数据集进行优化分类,最后进行投票并得出最终决策。本发明深层网络的中间层可以增强从全连接层获得的特征的分类能力,而且为每个特征训练单独的分类器,因此具有较好的分类性能;同时计算成本低,有利于实现目标分类技术的各种应用。
Description
技术领域
本发明涉及目标分类领域,尤其是涉及了一种基于局部和深度特征集合的目标分类方法。
背景技术
目标识别和分类是当前计算机视觉和人工智能等领域的研究热点,它是模式识别技术的一个重要分支,可以将其定义为对表征对象向量信息进行处理、分析、描述、分类和解释的过程。识别的对象包括了文字、声音、图像等。目标识别和分类可以应用在用于身份确认的指纹识别和人脸识别、在智能交通管理中的车牌识别、农业方面的种子识别、食品品质检测技术和医学方面的心电图识别技术等,还可以进一步延伸到文字和语音的识别、遥感等方面。除此之外,其在机器人导航、智能视频监控、工业检测、航空航天等诸多领域也有广泛应用。然而,传统的方法在分类时使用的是融合特征,分类效果不佳,而且计算成本较高,不利于应用。
本发明提出了一种基于局部和深度特征集合的目标分类方法,先从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量,然后利用费舍尔向量作为编码策略,对每个特征训练一个支持向量机(SVM),接着对分类器集合进行训练和测试,对输入数据集进行优化分类,最后进行投票并得出最终决策。本发明深层网络的中间层可以增强从全连接层获得的特征的分类能力,而且为每个特征训练单独的分类器,因此具有较好的分类性能;同时计算成本低,有利于实现目标分类技术的各种应用。
发明内容
针对分类效果不佳、计算成本较高等问题,本发明的目的在于提供一种基于局部和深度特征集合的目标分类方法,先从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量,然后利用费舍尔向量作为编码策略,对每个特征训练一个支持向量机(SVM),接着对分类器集合进行训练和测试,对输入数据集进行优化分类,最后进行投票并得出最终决策。
为解决上述问题,本发明提供一种基于局部和深度特征集合的目标分类方法,其主要内容包括:
(一)深度卷积特征提取;
(二)局部特征和编码;
(三)分类器集合。
其中,所述的基于局部和深度特征集合的目标分类方法,从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量;对每个特征训练一个支持向量机(SVM),对输入数据集进行优化分类,然后进行投票并得出最终决策。
其中,所述的深度卷积特征提取,深度卷积特征评估了三种流行的CNN架构:AlexNet、VGGNet和GoogleNet。
进一步地,所述的AlexNet,其架构由5个卷积层和3个全连接层组成;它引入了修正线性单元(ReLU)作为池中非线性的使用,并在训练期间忽略神经元,从而减少过度拟合;合并层放置在第一、第二和第五卷积层之后。
进一步地,所述的VGGNet,其普及主要是由于在每个卷积层中使用了多个3×3滤波器;多个小卷积滤波器可以模拟大接收场的响应,从而提供更好的泛化能力并表示对象的复杂特征;VGGNet由13个16层的卷积层和3个全连接层组成;卷积层被分成5个组,每个组后面是最大汇集层。
进一步地,所述的GoogleNet,其将卷积块与1×1卷积滤波器(称为网络中的网络)的块并行化,有效地利用了这些卷积特征的所有像素之间共享的非常少的参数。
其中,所述的局部特征和编码,基于补丁的图像描述符,如SIFT和加速稳健特征(SURF),在图像分类系统中显示出巨大的潜力;在关键点检测阶段,选择合适的特征尺度作为尺度σ的连续函数,通过与高斯核进行卷积,形成图像的尺度空间;尺度是由拉普拉斯高斯滤波器的最大值决定的,可以用高斯差分算子来代替;关键点的极值点是使用3×3滤波器的邻域算子估计的;进一步的过滤有助于摆脱非真实极值点、低对比度点和沿边响应;为了使描述符旋转不变,计算方向直方图,并用128维特征向量描述最终关键点;图像的细粒度信息是使用图像签名(视觉词袋、局部特征聚合描述符、费舍尔向量)捕获的。
进一步地,所述的费舍尔向量,在实验中,利用费舍尔向量作为编码策略;给定一个似然函数p(X|λ),其中,λ表示参数,X的得分函数可以表示为:
梯度矢量可以使用任何鉴别分类器进行分类;要求对这样的鉴别分类器中存在的内积项进行归一化;费舍尔信息矩阵由下式给出:
归一化的梯度向量由下式给出:
视觉词汇表上的费舍尔核用高斯混合模型(GMM)表示。
其中,所述的分类器集合(三),其特征在于,分类器集合包括训练和测试;训练包括深度集合、中间层集合和与深层集合的SIFT;
(1)深度集合:深层网络是在最后一层使用相应的softmax分类器进行训练的;用最后一层的SVM代替softmax,并用完全连通层的输出重新训练最后一层;将各种深层特征的组合称为深度集合的独立训练SVM;这样的网络允许利用各种深层特征的互补性;
(2)中间层集合:
(a)单个中间层:为了评估中间层的表示能力,一旦网络被训练,则移除之后的层;各个中间层之后是由SVM组成的分类层;
(b)中间层融合:对每个深度网络进行各种中间层特征融合的实验;如果融合的各种中间层与深度集合相比可以形成一个更强大的特征,则可以评估这种组合;由于得到的特征向量具有非常高的维度,所以可以通过使用主成分分析(PCA)减小特征向量的大小来训练SVM;
(3)与深层集合的SIFT:将SIFT的输出与深度集合融合;使用费舍尔向量从图像中量化SIFT特征.
进一步地,所述的测试,在测试时间,各种体系结构的输出类别是基于如下执行的多数投票预测的:
其中,φens(I)是输入图像I的输出决策,Nk是输出为第k个类别的SVM的数量,其由下式给出:
Nk=#{c|φc(I)=Lk} (5)
其中,φc是集合中第c个分类器的输出或决策函数,Lk表示第k个类别的标签。
附图说明
图1是本发明一种基于局部和深度特征集合的目标分类方法的系统流程图。
图2是本发明一种基于局部和深度特征集合的目标分类方法的流程示意图。
图3是本发明一种基于局部和深度特征集合的目标分类方法的分类器的训练。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于局部和深度特征集合的目标分类方法的系统流程图。主要包括深度卷积特征提取,局部特征和编码和分类器集合。
深度卷积特征提取,深度卷积特征评估了三种流行的CNN架构:AlexNet、VGGNet和GoogleNet。
AlexNet的架构由5个卷积层和3个全连接层组成;它引入了修正线性单元(ReLU)作为池中非线性的使用,并在训练期间忽略神经元,从而减少过度拟合;合并层放置在第一、第二和第五卷积层之后。
VGGNet的普及主要是由于在每个卷积层中使用了多个3×3滤波器;多个小卷积滤波器可以模拟大接收场的响应,从而提供更好的泛化能力并表示对象的复杂特征;VGGNet由13个16层的卷积层和3个全连接层组成;卷积层被分成5个组,每个组后面是最大汇集层。
GoogleNet将卷积块与1×1卷积滤波器(称为网络中的网络)的块并行化,有效地利用了这些卷积特征的所有像素之间共享的非常少的参数。
局部特征和编码,基于补丁的图像描述符,如SIFT和加速稳健特征(SURF),在图像分类系统中显示出巨大的潜力;在关键点检测阶段,选择合适的特征尺度作为尺度σ的连续函数,通过与高斯核进行卷积,形成图像的尺度空间;尺度是由拉普拉斯高斯滤波器的最大值决定的,可以用高斯差分算子来代替;关键点的极值点是使用3×3滤波器的邻域算子估计的;进一步的过滤有助于摆脱非真实极值点、低对比度点和沿边响应;为了使描述符旋转不变,计算方向直方图,并用128维特征向量描述最终关键点;图像的细粒度信息是使用图像签名(视觉词袋、局部特征聚合描述符、费舍尔向量)捕获的。
在实验中,利用费舍尔向量作为编码策略;给定一个似然函数p(X|λ),其中,λ表示参数,X的得分函数可以表示为:
梯度矢量可以使用任何鉴别分类器进行分类;要求对这样的鉴别分类器中存在的内积项进行归一化;费舍尔信息矩阵由下式给出:
归一化的梯度向量由下式给出:
视觉词汇表上的费舍尔核用高斯混合模型(GMM)表示。
分类器集合包括训练和测试;
在测试时间,各种体系结构的输出类别是基于如下执行的多数投票预测的:
其中,φens(I)是输入图像I的输出决策,Nk是输出为第k个类别的SVM的数量,其由下式给出:
Nk=#{c|φc(I)=Lk} (5)
其中,φc是集合中第c个分类器的输出或决策函数,Lk表示第k个类别的标签。
图2是本发明一种基于局部和深度特征集合的目标分类方法的流程示意图。从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量;对每个特征训练一个支持向量机(SVM),对输入数据集进行优化分类,然后进行投票并得出最终决策。
图3是本发明一种基于局部和深度特征集合的目标分类方法的分类器的训练。训练包括深度集合、中间层集合和与深层集合的SIFT;
(1)深度集合:深层网络是在最后一层使用相应的softmax分类器进行训练的;用最后一层的SVM代替softmax,并用完全连通层的输出重新训练最后一层;将各种深层特征的组合称为深度集合的独立训练SVM;这样的网络允许利用各种深层特征的互补性;
(2)中间层集合:
(a)单个中间层:为了评估中间层的表示能力,一旦网络被训练,则移除之后的层;各个中间层之后是由SVM组成的分类层;
(b)中间层融合:对每个深度网络进行各种中间层特征融合的实验;如果融合的各种中间层与深度集合相比可以形成一个更强大的特征,则可以评估这种组合;由于得到的特征向量具有非常高的维度,所以可以通过使用主成分分析(PCA)减小特征向量的大小来训练SVM;
(3)与深层集合的SIFT:将SIFT的输出与深度集合融合;使用费舍尔向量从图像中量化SIFT特征。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于局部和深度特征集合的目标分类方法,其特征在于,主要包括深度卷积特征提取(一);局部特征和编码(二);分类器集合(三)。
2.基于权利要求书1所述的基于局部和深度特征集合的目标分类方法,其特征在于,从深度网络的最后完全连接层中提取描述符和尺度不变特征变换(SIFT)描述符的费舍尔向量;对每个特征训练一个支持向量机(SVM),对输入数据集进行优化分类,然后进行投票并得出最终决策。
3.基于权利要求书1所述的深度卷积特征提取(一),其特征在于,深度卷积特征评估了三种流行的CNN架构:AlexNet、VGGNet和GoogleNet。
4.基于权利要求书3所述的AlexNet,其特征在于,AlexNet的架构由5个卷积层和3个全连接层组成;它引入了修正线性单元(ReLU)作为池中非线性的使用,并在训练期间忽略神经元,从而减少过度拟合;合并层放置在第一、第二和第五卷积层之后。
5.基于权利要求书3所述的VGGNet,其特征在于,VGGNet的普及主要是由于在每个卷积层中使用了多个3×3滤波器;多个小卷积滤波器可以模拟大接收场的响应,从而提供更好的泛化能力并表示对象的复杂特征;VGGNet由13个16层的卷积层和3个全连接层组成;卷积层被分成5个组,每个组后面是最大汇集层。
6.基于权利要求书3所述的GoogleNet,其特征在于,GoogleNet将卷积块与1×1卷积滤波器(称为网络中的网络)的块并行化,有效地利用了这些卷积特征的所有像素之间共享的非常少的参数。
7.基于权利要求书1所述的局部特征和编码(二),其特征在于,基于补丁的图像描述符,如SIFT和加速稳健特征(SURF),在图像分类系统中显示出巨大的潜力;在关键点检测阶段,选择合适的特征尺度作为尺度σ的连续函数,通过与高斯核进行卷积,形成图像的尺度空间;尺度是由拉普拉斯高斯滤波器的最大值决定的,可以用高斯差分算子来代替;关键点的极值点是使用3×3滤波器的邻域算子估计的;进一步的过滤有助于摆脱非真实极值点、低对比度点和沿边响应;为了使描述符旋转不变,计算方向直方图,并用128维特征向量描述最终关键点;图像的细粒度信息是使用图像签名(视觉词袋、局部特征聚合描述符、费舍尔向量)捕获的。
8.基于权利要求书7所述的费舍尔向量,其特征在于,在实验中,利用费舍尔向量作为编码策略;给定一个似然函数p(X|λ),其中,λ表示参数,X的得分函数可以表示为:
梯度矢量可以使用任何鉴别分类器进行分类;要求对这样的鉴别分类器中存在的内积项进行归一化;费舍尔信息矩阵由下式给出:
归一化的梯度向量由下式给出:
视觉词汇表上的费舍尔核用高斯混合模型(GMM)表示。
9.基于权利要求书1所述的分类器集合(三),其特征在于,分类器集合包括训练和测试;训练包括深度集合、中间层集合和与深层集合的SIFT;
(1)深度集合:深层网络是在最后一层使用相应的softmax分类器进行训练的;用最后一层的SVM代替softmax,并用完全连通层的输出重新训练最后一层;将各种深层特征的组合称为深度集合的独立训练SVM;这样的网络允许利用各种深层特征的互补性;
(2)中间层集合:
(a)单个中间层:为了评估中间层的表示能力,一旦网络被训练,则移除之后的层;各个中间层之后是由SVM组成的分类层;
(b)中间层融合:对每个深度网络进行各种中间层特征融合的实验;如果融合的各种中间层与深度集合相比可以形成一个更强大的特征,则可以评估这种组合;由于得到的特征向量具有非常高的维度,所以可以通过使用主成分分析(PCA)减小特征向量的大小来训练SVM;
(3)与深层集合的SIFT:将SIFT的输出与深度集合融合;使用费舍尔向量从图像中量化SIFT特征。
10.基于权利要求书9所述的测试,其特征在于,在测试时间,各种体系结构的输出类别是基于如下执行的多数投票预测的:
其中,φens(I)是输入图像I的输出决策,Nk是输出为第k个类别的SVM的数量,其由下式给出:
Nk=#{c|φc(I)=Lk} (5)
其中,φc是集合中第c个分类器的输出或决策函数,Lk表示第k个类别的标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423291.5A CN108154183A (zh) | 2017-12-25 | 2017-12-25 | 一种基于局部和深度特征集合的目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423291.5A CN108154183A (zh) | 2017-12-25 | 2017-12-25 | 一种基于局部和深度特征集合的目标分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108154183A true CN108154183A (zh) | 2018-06-12 |
Family
ID=62462065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711423291.5A Withdrawn CN108154183A (zh) | 2017-12-25 | 2017-12-25 | 一种基于局部和深度特征集合的目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108154183A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596163A (zh) * | 2018-07-10 | 2018-09-28 | 中国矿业大学(北京) | 一种基于cnn和vlad的煤岩识别方法 |
CN109461457A (zh) * | 2018-12-24 | 2019-03-12 | 安徽师范大学 | 一种基于svm-gmm模型的语音识别方法 |
CN110070116A (zh) * | 2019-04-08 | 2019-07-30 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
CN110263868A (zh) * | 2019-06-24 | 2019-09-20 | 北京航空航天大学 | 基于SuperPoint特征的图像分类网络 |
US11636306B2 (en) * | 2018-05-21 | 2023-04-25 | Imagination Technologies Limited | Implementing traditional computer vision algorithms as neural networks |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335758A (zh) * | 2015-11-03 | 2016-02-17 | 电子科技大学 | 一种基于视频费舍尔向量描述符的车型识别方法 |
CN107133640A (zh) * | 2017-04-24 | 2017-09-05 | 河海大学 | 基于局部图像块描述子和费舍尔向量的图像分类方法 |
-
2017
- 2017-12-25 CN CN201711423291.5A patent/CN108154183A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335758A (zh) * | 2015-11-03 | 2016-02-17 | 电子科技大学 | 一种基于视频费舍尔向量描述符的车型识别方法 |
CN107133640A (zh) * | 2017-04-24 | 2017-09-05 | 河海大学 | 基于局部图像块描述子和费舍尔向量的图像分类方法 |
Non-Patent Citations (1)
Title |
---|
SIDDHARTH SRIVASTAVA, PRERANA MUKHERJEE, ET. AL.: ""Object Classification using Ensemble of Local and Deep Features"", 《ARXIV》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11636306B2 (en) * | 2018-05-21 | 2023-04-25 | Imagination Technologies Limited | Implementing traditional computer vision algorithms as neural networks |
CN108596163A (zh) * | 2018-07-10 | 2018-09-28 | 中国矿业大学(北京) | 一种基于cnn和vlad的煤岩识别方法 |
CN109461457A (zh) * | 2018-12-24 | 2019-03-12 | 安徽师范大学 | 一种基于svm-gmm模型的语音识别方法 |
CN110070116A (zh) * | 2019-04-08 | 2019-07-30 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
CN110070116B (zh) * | 2019-04-08 | 2022-09-20 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
CN110263868A (zh) * | 2019-06-24 | 2019-09-20 | 北京航空航天大学 | 基于SuperPoint特征的图像分类网络 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bautista et al. | Convolutional neural network for vehicle detection in low resolution traffic videos | |
CN108154183A (zh) | 一种基于局部和深度特征集合的目标分类方法 | |
Lucena et al. | Transfer learning using convolutional neural networks for face anti-spoofing | |
Oliveira et al. | Automatic graphic logo detection via fast region-based convolutional networks | |
CN110852316A (zh) | 一种采用密集结构卷积网络的图像篡改检测和定位方法 | |
Sun et al. | A face spoofing detection method based on domain adaptation and lossless size adaptation | |
CN110717554A (zh) | 图像识别方法、电子设备及存储介质 | |
Mishra et al. | Multiscale parallel deep CNN (mpdCNN) architecture for the real low-resolution face recognition for surveillance | |
Wang et al. | Adversarial learning for zero-shot domain adaptation | |
Awang et al. | Vehicle counting system based on vehicle type classification using deep learning method | |
CN104573699A (zh) | 基于中等场强磁共振解剖成像的实蝇识别方法 | |
Avola et al. | Real-time deep learning method for automated detection and localization of structural defects in manufactured products | |
Khellal et al. | Pedestrian classification and detection in far infrared images | |
Vasmatkar et al. | Snake species identification and recognition | |
Wang et al. | Occluded vehicle detection with local connected deep model | |
Rakowski et al. | Hand shape recognition using very deep convolutional neural networks | |
Juefei-Xu et al. | DeepGender2: A generative approach toward occlusion and low-resolution robust facial gender classification via progressively trained attention shift convolutional neural networks (PTAS-CNN) and deep convolutional generative adversarial networks (DCGAN) | |
Raj et al. | Object detection and recognition using small labeled datasets | |
Abilash et al. | Currency recognition for the visually impaired people | |
CN113642540B (zh) | 一种基于胶囊网络的人脸表情识别方法及装置 | |
Roxas et al. | Multi-scale vehicle classification using different machine learning models | |
CN112052881B (zh) | 基于多尺度近端特征拼接的高光谱图像分类模型的装置 | |
Raza et al. | Pedestrian classification by using stacked sparse autoencoders | |
Prabakar et al. | Hybrid deep learning model for copy move image forgery detection | |
Ghifary et al. | Deep hybrid networks with good out-of-sample object recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180612 |
|
WW01 | Invention patent application withdrawn after publication |