CN109308483B - 基于卷积神经网络的双源图像特征提取及融合识别方法 - Google Patents
基于卷积神经网络的双源图像特征提取及融合识别方法 Download PDFInfo
- Publication number
- CN109308483B CN109308483B CN201810843122.5A CN201810843122A CN109308483B CN 109308483 B CN109308483 B CN 109308483B CN 201810843122 A CN201810843122 A CN 201810843122A CN 109308483 B CN109308483 B CN 109308483B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- sample
- matrix
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括:利用卷积神经网络具有迁移学习的特性,通过大量的可见光数据库训练卷积神经网络模型参数;将训练好的模型分别用于自动提取可见光与热红外目标图像的隐藏特征,并使用最大值降采样方法减少特征维度;结合费希尔判别法和主成分分析算法对目标的多源图像特征进行降维融合;利用支持向量机分类器对目标图像的融合特征进行分类识别。本发明针对无人机平台中多源传感器图像目标分类识别,实现利用卷积神经网络提取图像隐藏特征,再组合费希尔判别法和主成分分析算法用于特征的降维融合,为基于特征级的多源图像目标分类识别提供了一种新的有效途径。
Description
技术领域
本发明属于图像信号处理与模式识别领域,是一种基于卷积神经网络的双源图像特征提取及融合识别方法。
背景技术
近二十年来,基于特征的目标识别分类技术成为图像信号处理与模式识别研究的热点,在军事和民用领域得到了广泛的应用。例如海上舰艇探测、海上救援、地面军事目标打击、嫌犯追踪等等。目前,单传感器的特征级目标识别分类技术已经相对成熟,单因为传感器自身的限制,其工作环境和适用对象相对单一,无法满足复杂环境中的应用需要。
可见光传感器的成像分辨率高,目标纹理细节丰富,边缘清晰,但容易受到光照条件的干扰,在强反射及光照不足时无法提供准确有效的信息。而热红外传感器成像虽然成像分辨率差,边缘易模糊,但不受光照情况影响,可满足无光照或有强光反射情况下的工作需要。将多源传感器图像进行融合识别,可以有效扩展复杂条件下多源图像目标识别的适用范围,并提高识别率。
目前在基于特征的多源传感器目标识别中,主要还依赖于人工提取图像特征,如图像的统计特征、边缘特征、纹理特征等等,常见的特征提取算法有:HU不变矩、LBP 局部二值模式、GLCM灰度共生矩阵、Gabor特征等等。人工提取特征依赖于特征算法性能的优劣,想要选出兼具低冗余、高鲁棒、且低维度的特征相对困难。同时,单一的特征算法一般无法适用于不同成像机理的传感器图像,使用范围有限,目标识别率较低。
卷积神经网络(Convolutional Neural Network,CNN)作为深度学习的一种重要模型,近年来在文字、语音、图像识别等领域获得了出色的成绩。利用卷积神经网络的迁移学习特征,通过庞大的可见光数据集对模型进行训练学习,可以有效的提取出了图像隐藏特征,无需关心特征的具体形式,即达到很高的识别率。卷积神经网络模型结构主要包括卷积层、池化层和全连接层,采用局部连接和权值共享,降低了网络模型的复杂度。
利用优化好参数的神经网络模型,分别对可见光及热红外图像提取隐含特征,利用 Fisher判别准则结合主成分分析方法对数据进行融合降维,相比于传统的特征串联、并联方法,可以在保证目标识别率的前提下大幅减少特征维度,提高算法效率。
发明内容
针对传统无人机单一传感器源目标识别受环境因素影响较大的问题,为了提高识别效率,扩展适用场景范围,本发明提出一种基于卷积神经网络的双源图像特征提取及融合识别方法,解决无人机平台中利用单源传感器进行目标识别易受光照条件干扰,且对目标的变换敏感,分类识别率较低的问题,为未来无人机对地、对海进行目标探测与跟踪识别提供了一条新途径。
本发明公开了一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括以下步骤:
1.建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包括相互对的L类目标,每类目标的样本数为n,总样本数为N=nL;
2.搭建深层卷积神经网络模型,模型结构依次为图像输入层、卷积层、池化层、丢弃层、全连接层和输出层,其中卷积层与池化层需要组合使用并需多次重复;
3.利用卷积神经网络的迁移学习特性,对搭建好的深层卷积神经网络进行训练,得到最优解的各层网络参数并保存模型;
4.对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算;利用多层卷积自动提取输入图像的隐藏特征,可表示为矩阵形式Ivis/ir=[m,m,M],其中vis/ir分表表示可见光及热红外成像源图像样本,[m,m]表示卷积输出窗口结果,M表示叠加的卷积核的数量;
5.对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax=max(m,m),则三维特征矩阵[m,m,M]降采样到M维的特征向量,表示为 I′vis/ir=[mmax1,…,mmaxS,];
6.对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air:
7.将二维特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
8.通过Fisher判别函数:
式中,i为特征分量编号;k为目标所属类型,k=1,2,...,L,L为目标类别总数;xi (k)为类型k的单个样本的第i维特征;wk为类型为k的样本集合;mi (k)为类型为k的所有样本第i维特征的均值;ni为所有类型样本的第i维特征的总数;mi为所有类型样本的第i维特征的均值;ni (k)为类型为k的所有样本的第i维特征的个数;
求特征矩阵FN,2*M每一维特征的Fisher判别函数值JF(i),令判别阈值Q= mean(JF),保留特征矩阵FN,2*M中JF(i)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度;
9.提取筛选过后的特征矩阵F′的主成分特征:首先求得训练样本特征集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W,训练样本集中的每个样本的特征转化为同理,测试集表示为 分别表示训练和测试样本个数;
10.将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。
进一步的,步骤1所述的数据库是基于无人机平台下同视角的可见光及热红外传感器拍摄的多类目标图片。
进一步的,可见光和热红外多类目标图片是相互配准的。
进一步的,步骤2所述的卷积神经网络模型结构具有16层结构,其中卷积层13层,全连接层3层。
进一步的,卷积神经网络模型采用梯度下降法和反向传播算法训练各层的网络参数。
进一步的,步骤4所述的提取输入图像的隐藏特征是截取深层卷积神经网络模型中最后一层池化层结果作为图像特征。
进一步的,步骤5中的降采样是利用最大值代替原有数据的降采样方法。
进一步的,步骤8所述的判别阈值为特征矩阵F的费希尔判别分数的平均值。
有益效果:本发明针对可见光及热红外多源传感器图像目标分类识别进行了研究,利用数量级庞大的可见光数据库训练的深层卷积神经网络模型分别提取目标可见光和热红外图像隐藏特征,利用降采样方法降低特征维度,并采用Fisher判别函数与主成分分析算法相结合进行特征融合,最后在SVM支持向量机分类器中进行识别分类。实验显示,基于卷积神经网络的可见光与热红外图像特征提取及融合方法在自建的无人机对地目标可光学/热红外数据库上的识别率达到95%,比单一传感器源图像的识别率提高了10%以上。与传统的人工提取特征算法,如HU不变矩、GLCM灰度共生矩阵、Gabor 特征方法进行比较,该方法也有明显提高,说明将卷积神经网络用于可见光与热红外图像特征提取是可行的且效果良好,将Fisher判别函数与主成分分析算法相结合进行特征融合是简单有效的。
附图说明
图1为本发明的流程图;
图2为本发明的深度卷积神经网络模型的结构示意图;
图3为自建的无人机对地目标的可见光与热红外成像数据库中的部分目标图像。
具体实施方式
下面结合附图和实施例进一步阐述本发明。
如图1所示的一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括以下步骤:
步骤一:建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包含相互对应的L类目标,每类目标的样本数为n,总样本数为N=nL。在自建数据库中有15类目标,每类目标样本数为375张,总样本数为5625张。
步骤二:搭建深层卷积神经网络模型,模型结构依次为图像输入层(InputLayer)、卷积层(Convolution Layer)共13层、池化层(Pooling Layer)共5层、丢弃层(Dropout Layer)、全连接层(Dense Layer)共3层、以及输出层(Output Layer),其中卷积层与池化层需要组合使用并需多次重复,每层网络均具有不同的参数值。模型使用梯度下降法和反向传播算法训练各层的网络参数。
步骤三:利用卷积神经网络的迁移学习特性,通过大量的可见光数据集,如ImageNet 训练搭建好的深层卷积神经网络,得到最优解的各层网络参数并保存模型;
步骤四:对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算。截取网络中最后一层池化层的结果作为该样本的特征矩阵,表示为Ivis/ir=[m,m,M],其中vis/ir分别表示可见光及热红外成像源图像样本,[m,m]表示池化层输出结果,M表示卷积核的数量;
步骤五:对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax= max(m,m),即对m*m大小的卷积结果窗取最大值,则三维特征矩阵[m,m,M]降采样到 M维的特征向量,表示为I′vis/ir=[mmax1,…,mmaxS,];
步骤六:对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air:
步骤七:将双源图像特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
步骤八:通过Fisher判别函数:
式中,i为特征分量编号;k为目标所属类型,k=1,2,...,L,L为目标类别总数;xi(k)为类型k的单个样本的第i维特征;wk为类型为k的样本集合;mi (k)为类型为k的所有样本第i维特征的均值;ni为所有类型样本的第i维特征的总数;mi为所有类型样本的第i维特征的均值;ni (k)为类型为k的所有样本的第i维特征的个数。
求特征矩阵F每一维特征的Fisher判别函数值JF(i),令判别阈值Q=mean(JF),保留特征矩阵F中JF(i)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度。
步骤九:提取筛选过后的特征矩阵F′的主成分特征。首先求得训练样本特征集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W。训练样本集中的每个样本的特征转化同理,测试集表示为 分别表示训练和测试样本个数。
步骤十:最后,将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。其中SVM分类器选用的RBF核函数,设置参数c和g的范围均为-5~5,每次增量均为0.5,采取遍历所有取值的方法求得最佳参数c和g;在最佳参数下,输入所需数据训练整个训练集,得到支持向量机模型,分析图像目标识别率。
Claims (8)
1.基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:包括以下步骤:
步骤1:建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包括相互对的L类目标,每类目标的样本数为n,总样本数为N=nL;
步骤2:搭建深层卷积神经网络模型,模型结构依次为图像输入层、卷积层、池化层、丢弃层、全连接层和输出层,其中卷积层与池化层需要组合使用并需多次重复;
步骤3:利用卷积神经网络的迁移学习特性,对搭建好的深层卷积神经网络进行训练,得到最优解的各层网络参数并保存模型;
步骤4:对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算;利用多层卷积自动提取输入图像的隐藏特征,表示为矩阵形式Ivis/ir=[m,m,M],其中vis/ir分表表示可见光及热红外成像源图像样本,[m,m]表示卷积输出窗口结果,M表示叠加的卷积核的数量;
步骤5:对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax=max(m,m),则三维特征矩阵[m,m,M]降采样到M维的特征向量,表示为I′vis/ir=[mmax1,…,mmaxS];
步骤6:对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air:
步骤7:将二维特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
步骤8:通过Fisher判别函数:
式中,h为特征分量编号;k为目标所属类型,k=1,2,…,L,L为目标类别总数;为类型h的单个样本的第i维特征;wk为类型为k的样本集合;为类型为k的所有样本第h维特征的均值;nh为所有类型样本的第h维特征的总数;mh为所有类型样本的第h维特征的均值;为类型为k的所有样本的第h维特征的个数;
求特征矩阵FN,2*M每一维特征的Fisher判别函数值JF(h),令判别阈值Q=mean(JF),保留特征矩阵FN,2*M中JF(h)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度;
步骤9:提取筛选过后的特征矩阵F′的主成分特征:首先求得训练样本特征f′train (a)集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W,训练样本集中的每个样本的特征转化为ztrain (a)=WTf′train (a),同理,测试集表示为ztest (b)=WTf′test (b),a,b分别表示训练和测试样本个数;
步骤10:将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。
2.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤1所述的数据库是基于无人机平台下同视角的可见光及热红外传感器拍摄的多类目标图片。
3.根据权利要求2所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:可见光和热红外多类目标图片是相互配准的。
4.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤2所述的卷积神经网络模型结构具有16层结构,其中卷积层13层,全连接层3层。
5.根据权利要求1或4所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:卷积神经网络模型采用梯度下降法和反向传播算法训练各层的网络参数。
6.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤4所述的提取输入图像的隐藏特征是截取深层卷积神经网络模型中最后一层池化层结果作为图像特征。
7.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤5中的降采样是利用最大值代替原有数据的降采样方法。
8.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤8所述的判别阈值为特征矩阵F的费希尔判别分数的平均值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810758541 | 2018-07-11 | ||
CN2018107585419 | 2018-07-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109308483A CN109308483A (zh) | 2019-02-05 |
CN109308483B true CN109308483B (zh) | 2021-09-17 |
Family
ID=65225826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810843122.5A Active CN109308483B (zh) | 2018-07-11 | 2018-07-27 | 基于卷积神经网络的双源图像特征提取及融合识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109308483B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110398986A (zh) * | 2019-04-28 | 2019-11-01 | 清华大学 | 一种多源数据迁移的无人机密集树林感知技术 |
CN110223334B (zh) * | 2019-05-07 | 2021-09-14 | 深圳云天励飞技术有限公司 | 一种景深图获取方法及装置 |
CN110334747A (zh) * | 2019-06-13 | 2019-10-15 | 河北科技大学 | 基于改进卷积神经网络的图像识别方法及应用 |
CN110427875B (zh) * | 2019-07-31 | 2022-11-11 | 天津大学 | 基于深度迁移学习和极限学习机的红外图像目标检测方法 |
CN110580503A (zh) * | 2019-08-22 | 2019-12-17 | 江苏和正特种装备有限公司 | 一种基于ai的双光谱目标自动识别方法 |
CN110781935B (zh) * | 2019-10-16 | 2023-09-15 | 张磊 | 一种通过迁移学习实现轻量级图像分类的方法 |
CN110782481B (zh) * | 2019-10-18 | 2023-09-05 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 无人艇智能决策方法及系统 |
CN110781690B (zh) * | 2019-10-31 | 2021-07-13 | 北京理工大学 | 一种多源神经机器翻译模型的融合和压缩方法 |
CN111401439A (zh) * | 2020-03-13 | 2020-07-10 | 重庆第二师范学院 | 目标识别方法、装置、计算机设备及存储介质 |
CN112651278B (zh) * | 2020-09-21 | 2024-08-09 | 武昌理工学院 | 一种基于特征筛选的探测数据处理方法 |
CN112487899B (zh) * | 2020-11-19 | 2023-04-07 | 武汉高德飞行器科技有限公司 | 基于无人机的目标识别方法、系统、存储介质及电子设备 |
CN113157678B (zh) * | 2021-04-19 | 2022-03-15 | 中国人民解放军91977部队 | 一种多源异构数据关联方法 |
CN113114697B (zh) * | 2021-04-21 | 2022-03-11 | 合肥工业大学 | 一种基于特征自降维标记的整车云测试数据在线封装方法 |
CN113191944B (zh) * | 2021-05-31 | 2023-11-07 | 大连民族大学 | 一种多通道图像内容特征融合风格迁移方法及系统 |
CN113379661B (zh) * | 2021-06-15 | 2023-03-07 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络装置 |
CN118135390B (zh) * | 2024-05-10 | 2024-06-28 | 国家海洋局北海信息中心(国家海洋局北海档案馆) | 基于gis的海底路由管道智慧管理识别系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780546A (zh) * | 2016-12-06 | 2017-05-31 | 南京航空航天大学 | 基于卷积神经网络的运动模糊编码点的身份识别方法 |
CN107463954A (zh) * | 2017-07-21 | 2017-12-12 | 华中科技大学 | 一种模糊异谱图像的模板匹配识别方法 |
WO2018000309A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Importance-aware model pruning and re-training for efficient convolutional neural networks |
CN107578432A (zh) * | 2017-08-16 | 2018-01-12 | 南京航空航天大学 | 融合可见光与红外两波段图像目标特征的目标识别方法 |
-
2018
- 2018-07-27 CN CN201810843122.5A patent/CN109308483B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018000309A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Importance-aware model pruning and re-training for efficient convolutional neural networks |
CN106780546A (zh) * | 2016-12-06 | 2017-05-31 | 南京航空航天大学 | 基于卷积神经网络的运动模糊编码点的身份识别方法 |
CN107463954A (zh) * | 2017-07-21 | 2017-12-12 | 华中科技大学 | 一种模糊异谱图像的模板匹配识别方法 |
CN107578432A (zh) * | 2017-08-16 | 2018-01-12 | 南京航空航天大学 | 融合可见光与红外两波段图像目标特征的目标识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109308483A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109308483B (zh) | 基于卷积神经网络的双源图像特征提取及融合识别方法 | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
Chen et al. | Hyperspectral image classification using dictionary-based sparse representation | |
CN112488205B (zh) | 基于优化kpca算法的神经网络图像分类识别方法 | |
CN112686331B (zh) | 伪造图像识别模型训练方法及伪造图像识别方法 | |
CN112285712B (zh) | 一种提高sar图像中靠岸船只检测精度的方法 | |
CN107451565B (zh) | 一种半监督小样本深度学习图像模式分类识别方法 | |
Gerg et al. | Structural prior driven regularized deep learning for sonar image classification | |
CN102930300B (zh) | 一种飞机目标识别方法及系统 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
AU2020204549A1 (en) | Multi-View Three-Dimensional Model Retrieval Method Based on Non-Local Graph Convolutional Network | |
Ng et al. | Skin color segmentation by texture feature extraction and k-mean clustering | |
Ren et al. | Ship recognition based on Hu invariant moments and convolutional neural network for video surveillance | |
CN112418041A (zh) | 一种基于人脸正面化的多姿态人脸识别方法 | |
CN110991257A (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
Gundogdu et al. | Object classification in infrared images using deep representations | |
CN116363535A (zh) | 基于卷积神经网络的无人机航拍影像中的船舶检测方法 | |
CN112560824B (zh) | 一种基于多特征自适应融合的人脸表情识别方法 | |
CN109886160A (zh) | 一种非限定条件下的人脸识别方法 | |
Thangaraj et al. | Deep Learning based Real-Time Face Detection and Gender Classification using OpenCV and Inception v3 | |
Wang et al. | Ship discrimination with deep convolutional neural networks in SAR Images | |
DONG et al. | Maritime background infrared imagery classification based on histogram of oriented gradient and local contrast features | |
Chen et al. | Complex scene classification of high resolution remote sensing images based on DCNN model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |