CN112949384B - 一种基于对抗性特征提取的遥感图像场景分类方法 - Google Patents

一种基于对抗性特征提取的遥感图像场景分类方法 Download PDF

Info

Publication number
CN112949384B
CN112949384B CN202110091535.4A CN202110091535A CN112949384B CN 112949384 B CN112949384 B CN 112949384B CN 202110091535 A CN202110091535 A CN 202110091535A CN 112949384 B CN112949384 B CN 112949384B
Authority
CN
China
Prior art keywords
network
image
sample
discriminator
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110091535.4A
Other languages
English (en)
Other versions
CN112949384A (zh
Inventor
姚西文
王志强
程塨
韩军伟
郭雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110091535.4A priority Critical patent/CN112949384B/zh
Publication of CN112949384A publication Critical patent/CN112949384A/zh
Application granted granted Critical
Publication of CN112949384B publication Critical patent/CN112949384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种基于对抗性特征提取的遥感图像场景分类方法,先获取待分类的遥感图像场景分类数据集并进行预处理;然后构建对抗性特征提取模型;在对抗性特征提取模型中的生成器生成与正样本相似的难分负样本,判别器尽力将生成的难分负样本与正样本区分开,在生成器和判别器的对抗训练中,生成的样本逐渐变难,同时判别器的分辨性能逐渐变强,从而提升模型的分类性能。本发明可以解决遥感图像场景分类中存在的类内差异性和类间相似性、难分负样本数量少的问题,提高分类的准确性。

Description

一种基于对抗性特征提取的遥感图像场景分类方法
技术领域
本发明属于属于遥感图像处理技术领域,涉及一种基于对抗性特征提取的遥感图像场景分类方法。
背景技术
高分遥感图像场景分类是遥感图像信息挖掘的关键技术之一,也是诸多应用如土地使用、城市规划、环境监测等的难点问题之一。遥感图像场景分类是根据遥感图像的场景信息将其对应分成不同的场景类别。在实际运用中,高分遥感图像包含大量的语义场景类型构成复杂并容易受光照、气候、天气等影响,使得这些场景类别存在较高的类内差异性和类间相似性,为寻求有效的图像特征提取算法带来新的挑战。
遥感图像场景分类根据特征提取方式可以分为基于传统特征的分类方法和基于深度特征的分类方法。基于传统特征的分类方法根据图像的形状、颜色、纹理等信息实现特征提取,由于遥感图像背景复杂且需要根据经验进行特征描述符的设计,因而准确率低。随着深度学习的发展,基于卷积神经网络(Convolutional Neural Networks,CNN)的特征提取方式成为目前图像特征提取技术的主流。研究发现,在使用CNN进行图像特征提取时难分负样本在进行梯度下降时会产生较大的梯度,易分样本会产生很小或者接近零的梯度。然而,这些难分负样本在数据集中通常占比很小,而大量的易分样本隐含信息未能得到充分挖掘。因此,基于深度学习的场景分类算法面临以下几个关键性问题需要解决:(1)高分遥感图像场景构成复杂,使这些图像场景中存在较高的类内差异性和类间相似性问题,增大了特征提取的难度;(2)分类性能依赖于难分负样本,但难分负样本数量有限,而大量的简单易分样本又未能充分挖掘利用,限制了分类性能的提升。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于对抗性特征提取的遥感图像场景分类方法,用以解决上述背景技术中图像场景方法存在的类内差异性和类间相似性、难分负样本数量少等问题。
技术方案
一种基于对抗性特征提取的遥感图像场景分类方法,其特征在于步骤如下:
步骤1:图像三元组加载器根据给定的遥感图像场景分类数据集中训练集标签,先随机选择一种图像类别,在选定图像类别中按照图像加载顺序选择一个图像作为锚样本,然后在本类别的其他图像中随机选择一个图像作为正样本,最后在其它类别的所有图像中随机选择一个图像作为负样本,最终锚样本、正样本、负样本组合成一个图像三元组;
步骤2:构建对抗性卷积神经网络模型,包括骨干网络、对抗性特征提取网络和分类网络;
所述骨干网络是:在ImageNet数据集上预训练的网络模型舍弃最后一层分类层,输出特征维度为k;
所述对抗性特征提取网络由生成器和判别器组成,生成器和判别器均由全连接网络和激活函数组成;其中激活函数在全连接网络之间;生成器和判别器的输入特征维度和输出特征维度均为k;
所述分类网络由一层全连接网络和Softmax函数构成,输入特征维度为k,输出维度为n,n表示图像类别;
步骤3:将图像三元组输入到对抗性卷积神经网络模型中的骨干网络中,得到图像三元组特征,接着将图像三元组特征输入到对抗性特征提取网络中的生成器中,生成与正样本相似的难分负样本,判别器将生成的难分负样本与正样本区分开;
步骤4:重复步骤3对图像进行识别,直至对抗性卷积神经网络模型损失收敛,得到最终的对抗性卷积神经网络模型,用此模型完成对遥感图像的分类任务。
所述步骤3的具体步骤为:
S31、将训练数据输入到骨干网络中得到相应的特征表示:
{ya,yp,yn}=F(θf;{x,x+,x-})
其中F表示骨干网络,θf表示骨干网络的参数,{x,x+,x-}表示图像三元组,其中x表示锚样本,x+表示正样本,x-表示负样本,{ya,yp,yn}表示经过骨干网络提取到的特征三元组,与图像三元组中元素一一对应;
S32、将提取到的特征三元组{ya,yp,yn}输入到对抗性特征提取网络的生成器中:
yfake=G(θg;{ya,yp,yn})
其中G表示生成器,θg表示生成器的参数,yfake表示生成器通过特征三元组生成的难分负样本特征;
S33、将难分负样本特征yfake与特征三元组中锚样本特征和正样本特征组成新的特征三元组,输入到对抗性特征提取网络的判别器中:
{za,zp,zfake}=D(θd;{ya,yp,yfake})
其中D表示判别器,θd表示判别器的参数,判别器的输出为对抗性特征{za,zp,zfake};
S34、计算生成器的损失:
计算判别器的损失:
其中N表示三元组样本数,λ1、λ2表示权重,α表示阈值;
S35、最后将za输入到分类网络中完成分类结果预测,并计算损失:
其中li表示为分类one-hot标签,pi表示分类网络预测的各类得分。
所述步骤4中的损失函数为:J=Jgen+Jdis+Jclass
有益效果
本发明提出的一种基于对抗性特征提取的遥感图像场景分类方法,先获取待分类的遥感图像场景分类数据集并进行预处理;然后构建对抗性特征提取模型;在对抗性特征提取模型中的生成器生成与正样本相似的难分负样本,判别器尽力将生成的难分负样本与正样本区分开,在生成器和判别器的对抗训练中,生成的样本逐渐变难,同时判别器的分辨性能逐渐变强,从而提升模型的分类性能。本发明可以解决遥感图像场景分类中存在的类内差异性和类间相似性、难分负样本数量少的问题,提高分类的准确性。
与现有技术相比,本发明具有以下优点:
(1)本发明通过构建对抗性特征提取网络,从大量简单易分的图像中生成潜在的难分负样本,弥补了普通图像场景分类方法特征空间中难分负样本的不足。
(2)本发明通过对抗训练的方式,提升特征表达的鲁棒性,减少遥感图像场景的类内差异性和类间相似性问题。
(3)本发明可以显著提升遥感图像场景分类性能。如表1所示,使用本发明在AID、NWPU-RESISC45数据集上进行实验,分别可以达到94.14%、91.10%的准确率,相比于使用相同的骨干网络(GoogLeNet)和分类器(Softmax层)性能提升2.47%、1.86%。
附图说明
图1:本发明方法的基本流程简图。
图2:本发明方法的结构设计图。
图3:本发明方法的网络训练流程图。
图4:本发明实施例提供的遥感图像分类训练流程图。
图5:本发明实施例提供的判别性特征提取网络中的生成网络图。
图6:本发明实施例提供的判别性特征提取网络中的判别网络图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
请参照附图4,图4表示本发明实施例所提供的遥感图像分类训练流程简图。本发明实施例在PyTorch的开发环境中执行。用于实施的数据是AID数据集,包含30类遥感影像,每类220到420张图像不等,图像大小600×600像素,相同类别图像在同一文件夹下。
步骤S1所述,将数据集随机划分成20%训练,剩余80%测试,其中每个类别的20%训练,剩余80%用于测试。将训练集图像通过裁剪、平移、旋转、翻转等操作进行数据扩充。将增强后的固定尺寸大小的图像读取为张量数据,并按照批大小为32划分成若干批,其中每一批为32个图像三元组{x,x+,x-},每组包括锚样本x、正样本x+、负样本x-各一个,锚样本和正样本属于同一类别,负样本属于不同类别。为了保证所有的锚样本包含所有的训练集图像,正样本和负样本在训练集中随机抽取。
步骤S2所述,如图2,构建对抗性卷积神经网络模型。选用GoogLeNet作为骨干网络,其中GoogLeNet有22层卷积层,由1×1、3×3、5×5三种不同大小的卷积核构造的Inception结构而组成。Inception结构不仅增加了网络的宽度,而且使网络具有不同的感受野,提升特征提取的性能。如图5,构建对抗性特征提取网络中的生成网络,其由两层全连接层和ReLU构成。如图6,构建对抗性特征提取网络中的判别网络,其由两层全连接层、ReLU和一层分类器组成,其中分类器为全连接层和Softmax函数构成。
步骤S31所述,将步骤S1获得的训练数据三元组输入到骨干网络中提取特征:
{ya,yp,yn}=F(θf;{x,x+,x-})
其中F表示骨干网络,θf表示骨干网络的参数,{x,x+,x-}表示图像三元组,其中x表示锚样本,x+表示正样本,x-表示负样本,{ya,yp,yn}表示经过骨干网络提取到的特征三元组,与图像三元组中元素一一对应;
步骤S32所述,将提取到的特征三元组{ya,yp,yn}输入到对抗性特征提取网络的生成网络中:
yfake=G(θg;{yai,ypi,yni})
其中G表示上述中的生成网络,θg为生成网络的参数,yfake为经过生成网络生成的难分负样本。
步骤S33所述,将生成的难分负样本特征yfake与特征三元组{ya,yp,yn}组成新的特征三元组{ya,yp,yfake},并将其输入到对抗性特征提取网络的判别网络中:
{za,zp,zfake}=D(θd;{ya,yp,yfake})
其中D表示上述中的判别网络,θd表示判别网络的参数,{za,zp,zfake}表示经过判别网络提取的判别性特征。
步骤S34所述,计算生成网络的期望的损失函数:
其中λ1、λ2和λ3表示参数,这里均设置为1;第一项使生成的对抗性特征与锚样本特征相似,第二项/>使生成的对抗性特征与负样本相似,在前两项的共同作用下,生成的难分负样本与正样本、负样本极具有混淆性;第三项/>为经过判别网络提取判别性特征之后,使得生成网络能够生成混淆判别网络的样本;
计算判别网络的期望的损失函数为:
其中表示判别网络尽力将生成网络生成的对抗性特征与锚样本、正样本区分开,提升网络的判别性特征表达能力;
对抗性特征提取网络中生成网络损失函数Jgen的第三项和判别网络损失函数Jdis的第一项作用相反,在两者的对抗训练下,生成网络可以生成难分负样本特征,而判别网络可以对特征进行度量提取对抗性性特征,提升特征可区分性,提高网络的特征表达能力,从而提升模型分类性能。
进一步的,使用SGD(Stochastic Gradient Descent)优化器、Adam(Adaptivemoment estimation)优化器分别对骨干网络和对抗性特征提取网络进行梯度更新,优化参数。
值得注意的是,此过程对抗性特征提取网络中的骨干网络、生成网络、判别网络、损失函数等所有组件参数的设计仅仅是本发明的一种实施例,通常在步骤S3和附图的描述下可以以各种不同的参数、网络结构、损失函数进行布置设计。
将上述中的测试集作为步骤S4更新后的对抗性特征提取网络的输入进行测试,得到测试结果。所述步骤S4中的损失函数为:J=Jgen+Jdis+Jclass
下表是本发明所提出方法的在AID、NWPU-RESISC45数据集上的测试结果(Top1)与使用GoogLeNet+Softmax进行微调的结果进行比较,结果如表1所示,表明了本发明方法的有效性。
表1检测结果评价

Claims (2)

1.一种基于对抗性特征提取的遥感图像场景分类方法,其特征在于步骤如下:
步骤1:图像三元组加载器根据给定的遥感图像场景分类数据集中训练集标签,先随机选择一种图像类别,在选定图像类别中按照图像加载顺序选择一个图像作为锚样本,然后在本类别的其他图像中随机选择一个图像作为正样本,最后在其它类别的所有图像中随机选择一个图像作为负样本,最终锚样本、正样本、负样本组合成一个图像三元组;
步骤2:构建对抗性卷积神经网络模型,包括骨干网络、对抗性特征提取网络和分类网络;
所述骨干网络是:在ImageNet数据集上预训练的网络模型舍弃最后一层分类层,输出特征维度为k;
所述对抗性特征提取网络由生成器和判别器组成,生成器和判别器均由全连接网络和激活函数组成;其中激活函数在全连接网络之间;生成器和判别器的输入特征维度和输出特征维度均为k;
所述分类网络由一层全连接网络和Softmax函数构成,输入特征维度为k,输出维度为n,n表示图像类别;
步骤3:将图像三元组输入到对抗性卷积神经网络模型中的骨干网络中,得到图像三元组特征,接着将图像三元组特征输入到对抗性特征提取网络中的生成器中,生成与正样本相似的难分负样本,判别器将生成的难分负样本与正样本区分开;
所述步骤3的具体步骤为:
S31、将训练数据输入到骨干网络中得到相应的特征表示:
{ya,yp,yn}=F(θf;{x,x+,x-})
其中F表示骨干网络,θf表示骨干网络的参数,{x,x+,x-}表示图像三元组,其中x表示锚样本,x+表示正样本,x-表示负样本,{ya,yp,yn}表示经过骨干网络提取到的特征三元组,与图像三元组中元素一一对应;
S32、将提取到的特征三元组{ya,yp,yn}输入到对抗性特征提取网络的生成器中:
yfake=G(θg;{ya,yp,yn})
其中G表示生成器,θg表示生成器的参数,yfake表示生成器通过特征三元组生成的难分负样本特征;
S33、将难分负样本特征yfake与特征三元组中锚样本特征和正样本特征组成新的特征三元组,输入到对抗性特征提取网络的判别器中:
{za,zp,zfake}=D(θd;{ya,yp,yfake})
其中D表示判别器,θd表示判别器的参数,判别器的输出为对抗性特征{za,zp,zfake};
S34、计算生成器的损失:
计算判别器的损失:
其中N表示三元组样本数,λ1、λ2表示权重,α表示阈值;
S35、最后将za输入到分类网络中完成分类结果预测,并计算损失:
其中li表示为分类one-hot标签,pi表示分类网络预测的各类得分;
步骤4:重复步骤3对图像进行识别,直至对抗性卷积神经网络模型损失收敛,得到最终的对抗性卷积神经网络模型,用此模型完成对遥感图像的分类任务。
2.根据权利要求1所述基于对抗性特征提取的遥感图像场景分类方法,其特征在于:所述步骤4中的损失函数为:J=Jgen+Jdis+Jclass
CN202110091535.4A 2021-01-23 2021-01-23 一种基于对抗性特征提取的遥感图像场景分类方法 Active CN112949384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110091535.4A CN112949384B (zh) 2021-01-23 2021-01-23 一种基于对抗性特征提取的遥感图像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110091535.4A CN112949384B (zh) 2021-01-23 2021-01-23 一种基于对抗性特征提取的遥感图像场景分类方法

Publications (2)

Publication Number Publication Date
CN112949384A CN112949384A (zh) 2021-06-11
CN112949384B true CN112949384B (zh) 2024-03-08

Family

ID=76236037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110091535.4A Active CN112949384B (zh) 2021-01-23 2021-01-23 一种基于对抗性特征提取的遥感图像场景分类方法

Country Status (1)

Country Link
CN (1) CN112949384B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998749B (zh) * 2022-07-28 2023-04-07 北京卫星信息工程研究所 用于目标检测的sar数据扩增方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304864A (zh) * 2018-01-17 2018-07-20 清华大学 深度对抗度量学习方法及装置
CN108805077A (zh) * 2018-06-11 2018-11-13 深圳市唯特视科技有限公司 一种基于三元组损失函数的深度学习网络的人脸识别系统
CN109344266A (zh) * 2018-06-29 2019-02-15 北京大学深圳研究生院 一种基于双语义空间的对抗性跨媒体检索方法
CN109903242A (zh) * 2019-02-01 2019-06-18 深兰科技(上海)有限公司 一种图像生成方法及装置
CN110084215A (zh) * 2019-05-05 2019-08-02 上海海事大学 一种二值化三元组孪生网络模型的行人重识别方法及系统
WO2019148898A1 (zh) * 2018-02-01 2019-08-08 北京大学深圳研究生院 基于受限文本空间的对抗性跨媒体检索方法
CN110674692A (zh) * 2019-08-23 2020-01-10 北京大学 一种基于难样本生成的目标精确检索方法及系统
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111028224A (zh) * 2019-12-12 2020-04-17 广西医准智能科技有限公司 数据标注、模型训练和图像处理方法、装置及存储介质
CN111027421A (zh) * 2019-11-26 2020-04-17 西安宏规电子科技有限公司 一种基于图的直推式半监督行人再识别方法
CN111260072A (zh) * 2020-01-08 2020-06-09 上海交通大学 一种基于生成对抗网络的强化学习探索方法
CN111325223A (zh) * 2018-12-13 2020-06-23 中国电信股份有限公司 深度学习模型的训练方法、装置和计算机可读存储介质
WO2020218314A1 (ja) * 2019-04-26 2020-10-29 株式会社日立製作所 特徴ベクトルを生成するシステム
CN111950625A (zh) * 2020-08-10 2020-11-17 中国平安人寿保险股份有限公司 基于人工智能的风险识别方法、装置、计算机设备及介质
CN112232156A (zh) * 2020-09-30 2021-01-15 河海大学 一种基于多头注意力生成对抗网络的遥感场景分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11720790B2 (en) * 2019-05-22 2023-08-08 Electronics And Telecommunications Research Institute Method of training image deep learning model and device thereof

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304864A (zh) * 2018-01-17 2018-07-20 清华大学 深度对抗度量学习方法及装置
WO2019148898A1 (zh) * 2018-02-01 2019-08-08 北京大学深圳研究生院 基于受限文本空间的对抗性跨媒体检索方法
CN108805077A (zh) * 2018-06-11 2018-11-13 深圳市唯特视科技有限公司 一种基于三元组损失函数的深度学习网络的人脸识别系统
CN109344266A (zh) * 2018-06-29 2019-02-15 北京大学深圳研究生院 一种基于双语义空间的对抗性跨媒体检索方法
CN111325223A (zh) * 2018-12-13 2020-06-23 中国电信股份有限公司 深度学习模型的训练方法、装置和计算机可读存储介质
CN109903242A (zh) * 2019-02-01 2019-06-18 深兰科技(上海)有限公司 一种图像生成方法及装置
WO2020218314A1 (ja) * 2019-04-26 2020-10-29 株式会社日立製作所 特徴ベクトルを生成するシステム
CN110084215A (zh) * 2019-05-05 2019-08-02 上海海事大学 一种二值化三元组孪生网络模型的行人重识别方法及系统
CN110674692A (zh) * 2019-08-23 2020-01-10 北京大学 一种基于难样本生成的目标精确检索方法及系统
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111027421A (zh) * 2019-11-26 2020-04-17 西安宏规电子科技有限公司 一种基于图的直推式半监督行人再识别方法
CN111028224A (zh) * 2019-12-12 2020-04-17 广西医准智能科技有限公司 数据标注、模型训练和图像处理方法、装置及存储介质
CN111260072A (zh) * 2020-01-08 2020-06-09 上海交通大学 一种基于生成对抗网络的强化学习探索方法
CN111950625A (zh) * 2020-08-10 2020-11-17 中国平安人寿保险股份有限公司 基于人工智能的风险识别方法、装置、计算机设备及介质
CN112232156A (zh) * 2020-09-30 2021-01-15 河海大学 一种基于多头注意力生成对抗网络的遥感场景分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
特征提取策略对高分辨率遥感图像场景分类性能影响的评估;钱晓亮 等;《 遥感学报》;全文 *
高分辨率遥感影像解译中的机器学习范式;周培诚 等;《遥感学报》;182-197 *

Also Published As

Publication number Publication date
CN112949384A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
Thai et al. Image classification using support vector machine and artificial neural network
CN107506793B (zh) 基于弱标注图像的服装识别方法及系统
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN106845525A (zh) 一种基于底层融合特征的深度置信网络图像分类协议
Kadam et al. [Retracted] Efficient Approach towards Detection and Identification of Copy Move and Image Splicing Forgeries Using Mask R‐CNN with MobileNet V1
CN103745201B (zh) 一种节目识别方法及装置
US11087164B2 (en) Method for identifying works of art at the stroke level
Zois et al. Hierarchical dictionary learning and sparse coding for static signature verification
CN106355210B (zh) 基于深度神经元响应模式的绝缘子红外图像特征表达方法
Bajić et al. Chart classification using simplified VGG model
CN111275070B (zh) 一种基于局部特征匹配的签名验证方法及设备
CN114724218A (zh) 视频检测方法、装置、设备及介质
CN112949384B (zh) 一种基于对抗性特征提取的遥感图像场景分类方法
Sharma et al. Deep convolutional neural network with ResNet-50 learning algorithm for copy-move forgery detection
Maddumala A Weight Based Feature Extraction Model on Multifaceted Multimedia Bigdata Using Convolutional Neural Network.
CN107798331B (zh) 离变焦图像序列特征提取方法和装置
Javed et al. Deep multiresolution cellular communities for semantic segmentation of multi-gigapixel histology images
Chen et al. Large-scale indoor/outdoor image classification via expert decision fusion (edf)
Li et al. Person re-identification using salient region matching game
CN111680711A (zh) 基于卷积神经网络的Logo图像分类方法
JP5277498B2 (ja) 類似情報分類参照装置および類似情報分類参照方法
Prabu et al. Robust Attack Identification Strategy to Prevent Document Image Forgeries by using Enhanced Learning Methodology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant