CN109740471A - 基于联合潜在语义嵌入的遥感图像描述方法 - Google Patents

基于联合潜在语义嵌入的遥感图像描述方法 Download PDF

Info

Publication number
CN109740471A
CN109740471A CN201811584864.7A CN201811584864A CN109740471A CN 109740471 A CN109740471 A CN 109740471A CN 201811584864 A CN201811584864 A CN 201811584864A CN 109740471 A CN109740471 A CN 109740471A
Authority
CN
China
Prior art keywords
remote sensing
sensing images
text
mark
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811584864.7A
Other languages
English (en)
Other versions
CN109740471B (zh
Inventor
卢孝强
王斌强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XiAn Institute of Optics and Precision Mechanics of CAS
Original Assignee
XiAn Institute of Optics and Precision Mechanics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XiAn Institute of Optics and Precision Mechanics of CAS filed Critical XiAn Institute of Optics and Precision Mechanics of CAS
Priority to CN201811584864.7A priority Critical patent/CN109740471B/zh
Publication of CN109740471A publication Critical patent/CN109740471A/zh
Application granted granted Critical
Publication of CN109740471B publication Critical patent/CN109740471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

为解决现有的遥感图像描述方法无法充分利用数据库当中的标注、在一些复杂场景不能有效适用的问题,本发明提供了一种基于联合潜在语义嵌入的遥感图像描述方法。包括步骤:1)构建训练样本集和测试样本集:2)对训练样本集中的原始遥感图像和其对应的标注文本进行联合表达:3)学习潜在语义空间:4)生成遥感图像的描述。本发明将描述原始遥感图像的五句标注文本进行联合文本特征提取,综合不同标注文本中的信息,尽量完整的对应原始遥感图像中所包含的内容;通过添加约束表达,得到联合文本特征和遥感图像特征距离最近的样本对;最终利用联合文本特征中包含的五句标注来共同描述遥感图像,使得遥感图像描述地更为充分。

Description

基于联合潜在语义嵌入的遥感图像描述方法
技术领域
本发明属于信息处理技术领域,特别涉及一种遥感图像描述方法,可用于地震灾害评估以及海洋监测等领域。本发明针对的是空对地的遥感图像,这些遥感图像是采取自上而下的拍摄方式捕捉的地面的物体的图像。
背景技术
高分辨率遥感图像已应用于地震灾害的分级评估、海洋观测等领域。随着遥感以及相关技术的不断发展,更高分辨率遥感图像的获取越来越方便。每时每刻,都在产生大量的遥感图像,这些遥感图像从生成到传输都要耗费巨大的人力物力,如何能够更详尽地挖掘遥感图像中的信息,以更有效地发挥遥感图像的重要作用具有重要意义。
为了挖掘遥感图像中的信息,需要研究基于遥感图像的语义理解,对高分辨率遥感图像进行描述,将高分辨率的遥感图像信息转化成为人类能够理解的文本信息。遥感图像不同于普通的自然图像:首先,遥感图像是利用传感器(卫星,航空航天器等)从远处来感知物体的手段;其次,传感器位置不同,对相同的物质会呈现出不同的大小和相对位置,使得遥感图像的语义理解更加困难;最后,因为遥感图像对于普通人而言不熟悉,在标注的时候存在一个不完全标注的问题,更使得遥感图像的语义理解与自然图像的语义理解大有不同。
为了利用有监督的机器学习手段解决遥感图像语义理解的问题,业内研究人员标注了相应的机器学习数据库。文献“B.Qu,X.Li,D.Tao,and X.Lu,“Deep semanticunderstanding of high resolution remote sensing image,”in Proceedings of theInternational Conference on Computer,Information and TelecommunicationSystems,2016,pp.124–128”首次提出基于机器学习来研究遥感图像的语义理解方法,并提出了两个遥感语义理解方法的数据库,这两个数据库分别是UCM-captions和Sydney-captions。其中,UCM-captions包含2100张遥感图像,每张图像对应五句不同的文本标注,Sydney-captions包含613遥感图像,每张图像对应五句不同的文本标注。文献“X.Lu,B.Wang,X.Zheng,and X.Li,“Exploring models and data for remote sensing imagecaption generation,”IEEE Transactions on Geoscience and Remote Sensing,vol.56,no.4,pp.2183–2195,2017.”针对遥感图像不同于自然图像的类别模糊,尺度多变等特点,推出了数据库RSICD(Remote Sensing Image Caption Dataset),其中包含10921张遥感图像,并邀请不同的志愿者对图像进行了标注,每个图像对应五句不同的文本标注。
由于从数据库中通过图像检索句子是非常困难的,为了有效利用上述遥感图像数据库中的信息,技术人员采用了以下两类方法,构建了从数据库中获取遥感图像对应的句子:
一是基于循环神经网络生成遥感图像描述的方法,这种方法通过循环神经网络逐词生成对应遥感图像的描述。B.Qu等人在文献“B.Qu,X.Li,D.Tao,and X.Lu,“Deepsemantic understanding ofhigh resolution remote sensing image,”InternationalConference onComputer,Information and Telecommunication Systems,pp.124–128,2016.”中提出一种句子生成的框架,该框架基于两种不同的循环神经网络来进行句子的生成。利用神经网络的强大表征能力,图像使用预训练的深度模型来提取图像特征,然后利用循环神经网络来逐个单词地生成最终的描述。对一张遥感图像而言,这种方法最终生成的是一个句子,该句子偏向于数据库中该遥感图像对应五句文本标注当中的某一个句子,无法充分利用数据库当中的标注。
二是基于目标检测的方法,这种方法是通过目标检测算法获取图像中存在的目标,然后将目标填充到预定义的句子模板(句子模板是缺乏部分单词的句子)中进行句子的生成。Z.Shi等人在文献“Z.Shi and Z.Zou,“Can a machine generate humanlikelanguage descriptionsfor a remote sensing image?”IEEE Transactions onGeoscienceand Remote Sensing,vol.55,no.6,pp.3623–3634,2017.”中提出一种方法,不同于传统卷积神经网络,这个方法使用全卷积网络来编码图像的特征,并将目标按照视野大小分为三个等级:单个目标级别,小场景级别和大场景级别。在获取到目标之后,再将这些获取到的目标填充到预定义的句子模板当中。虽然句子模板在预定义时考虑了人的用法习惯,但是这种生成方式生成的句子相对比较固化,在一些复杂场景并不能有效适用。
发明内容
为解决现有的遥感图像描述方法无法充分利用数据库当中的标注、在一些复杂场景不能有效适用的问题,本发明提供了一种基于联合潜在语义嵌入的遥感图像描述方法。
本发明的技术方案是:
基于联合潜在语义嵌入的遥感图像描述方法,其特殊之处在于,包括以下步骤:
1)构建训练样本集和测试样本集:
将数据库中的原始遥感图像及其对应的标注进行划分,将一部分原始遥感图像及其对应的标注划入训练样本集,其余划入测试样本集;
2)对训练样本集中的原始遥感图像和其对应的标注文本进行联合表达:
2.1)利用预训练好的深度神经网络提取每张原始遥感图像的图像特征;
2.2)利用预训练好的词向量提取每张原始遥感图像所对应的五句标注文本的联合文本特征;
2.3)将步骤2.1)提取的图像特征和步骤2.2)提取的联合文本特征进行融合,得到每张遥感图像及其对应标注文本的融合特征;
3)学习潜在语义空间:
利用添加约束的度量学习,学习所述融合特征的潜在语义空间,将所述融合特征映射到要学习的潜在语义空间内;
4)生成遥感图像的描述:
4.1)从测试样本集中任意选取一张原始遥感图像作为测试图像;
4.2)利用预训练好的深度神经网络提取所述测试图像的图像特征;
4.3)在步骤3)得到的潜在语义空间里,度量步骤4.2)提取的测试图像的图像特征与步骤2.2)提取的联合文本特征的距离,将距离最小的联合文本特征对应的五句标注文本作为所述测试图像的描述文本。
进一步地,步骤1)在划分时,将数据库中90%的原始遥感图像及其对应的标注划入训练样本集,10%的原始遥感图像及其对应的标注划入测试样本集。
进一步地,步骤2.1)中的所述深度神经网络采用VGG16、VGG19、AlexNet、GoogLeNet或ResNet。
进一步地,步骤2.2)具体为:
2.2.1)找到训练样本集中所有标注文本中最长的标注文本,将它的长度作为标准长度;所述长度为句子中单词的个数;
2.2.2)将当前待进行特征提取的原始遥感图像所对应五句标注文本中,长度小于所述标准长度的标注文本的末尾用零填充,零的个数为当前标注文本与所述最长的标注文本相比所缺少的单词个数;
2.2.3)用预训练好的词向量分别提取五句标注文本中每个单词的特征,在提取特征过程中,当遇到步骤2.2.2)所填充的零时,将每一个步骤2.2.2)所填充的零用长度为词向量维度的零向量替代,得到五句标注文本的特征表达;
2.2.4)将步骤2.2.3)得到的五句标注文本的特征表达首尾相接,得到当前原始遥感图像对应的五句标注文本的联合文本特征xca
xca=(v11,...,vij,...,v5L)
其中:
vij代表提取的第i个标注文本的第j个单词的特征;
L是所述标准长度。
进一步地,步骤2.3)是采用降维方法,将训练样本集中每张原始遥感图像的图像特征和其对应的联合文本特征的维度调整为一致,并进行特征融合,得到融合特征。
进一步地,步骤3)具体为:
3.1)将训练样本集中每张原始遥感图像的图像特征和与其对应的联合文本特征作为集合M1的元素将每张原始遥感图像的图像特征和与其不对应的联合文本特征作为集合M2的元素其中:
为训练样本集中第n个原始遥感图像的图像特征;
为训练样本集中第m个原始遥感图像对应的标注文本的联合文本特征;
3.2)计算集合M1和M2中原始遥感图像的图像特征与联合文本特征之间的距离
其中:
P代表要学习的马氏矩阵;
Q代表一个转换矩阵,用于将融合特征投影到要学习的潜在语义空间内;
3.3)添加约束表达,使得集合M1中原始遥感图像的图像特征与联合文本特征之间的距离小于集合M2中原始遥感图像的图像特征与联合文本特征之间的距离;所述约束表达为:
其中,H的表达为:
3.4)利过梯度下降法来求解最终要优化的损失函数,所述损失函数表达式为:
3.5)将步骤3.2)中的距离代入步骤3.4)得到的损失函数表达式中,求解得到所述Q,从而将步骤2.3)得到的融合特征投影到要学习的潜在语义空间内。
与现有技术相比,本法具有如下有益效果:
1.本发明将描述原始遥感图像的五句标注文本进行联合文本特征提取,综合不同标注文本中的信息,尽量完整的对应原始遥感图像中所包含的内容;通过添加约束表达,得到联合文本特征和遥感图像特征距离最近的样本对;最终利用联合文本特征中包含的五句标注来共同描述遥感图像,使得遥感图像描述地更为充分。
2.采用本发明的方法,将需要检索的遥感图像划入测试样本集,即可实现该遥感图像的文本标注检索,也就是实现了该遥感图像的描述。
附图说明
图1为本发明的方法流程图。
具体实施方式
参照图1,本发明实现的步骤如下:
步骤1)构建训练样本集和测试样本集:
将数据库(UCM-captions、Sydney-captions或RSICD)中的原始遥感图像及其对应的标注进行划分;在划分时,最好将数据库中90%的原始遥感图像及其对应的标注划入训练样本集,10%的原始遥感图像及其对应的标注划入测试样本集,并且将想要检索的遥感图像划入测试样本集。
步骤2)对训练样本集中的原始遥感图像和其对应的标注文本进行联合表达:
步骤2.1)利用预训练好的深度神经网络提取每张原始遥感图像的图像特征;
步骤2.2)利用预训练好的词向量提取每张原始遥感图像所对应的五句标注文本的联合文本特征,具体方法为:
2.2.1)找到训练样本集中所有标注文本中最长的标注文本,将它的长度作为标准长度;所述长度为句子中单词的个数;
2.2.2)将当前待进行特征提取的原始遥感图像所对应五句标注文本中,长度小于所述标准长度的标注文本的末尾用零填充,零的个数为当前标注文本与所述最长的标注文本相比所缺少的单词个数;
2.2.3)用预训练好的词向量分别提取五句标注文本中每个单词的特征,在提取特征过程中,当遇到步骤2.2.2)所填充的零时,将每一个步骤2.2.2)所填充的零用长度为词向量维度的零向量替代,得到五句标注文本的特征表达;
2.2.4)将步骤2.2.3)得到的五句标注文本的特征表达首尾相接,得到当前原始遥感图像对应的五句标注文本的联合文本特征xca
xca=(v11,...,vij,...,v5L)
其中:
vij代表提取的第i个标注文本的第j个单词的特征;
L是所述标准长度;
为便于理解步骤2.2),以下举例说明:
假设五句话分别是:An intersection with some cars on the road,Anintersection with some houses and plants at the corners,An intersection withsome houses and plants at the corners,This is a T-junction,Two roads verticalto each other constitute a T-junction。它们的长度分别是8,10,10,4,9。假设整个训练集最大的长度L就是10,那么第一个,第四个和第五个分别需要填充2,6,1个“0”。在使用预训练的词向量进行表达的时候,每个单词转化为300维的向量,我们将单词转化为对应的词向量,“0”对应的位置使用一个300维的零向量来填充。最终将句子的特征首尾相接,得到一个300*10*5=15000维的联合文本特征。
步骤2.3)将步骤2.1)提取的图像特征和步骤2.2)提取的联合文本特征进行融合,得到每张遥感图像及其对应标注文本的融合特征;特征融合可以采用降维的方法,例如CCA(Canonical Correlation Analysis)
步骤3)学习潜在语义空间:
利用添加约束的度量学习,学习所述融合特征的潜在语义空间,即将融合特征映射到要学习的潜在语义空间内,具体方法为:
3.1)将训练样本集中每张原始遥感图像的图像特征和与其对应的联合文本特征作为集合M1的元素将每张原始遥感图像的图像特征和与其不对应的联合文本特征作为集合M2的元素其中:
为训练样本集中第n个原始遥感图像的图像特征;
为训练样本集中第m个原始遥感图像对应的标注文本的联合文本特征;
3.2)度量集合M1和M2中原始遥感图像的图像特征与联合文本特征之间的距离
其中:
P代表要学习的马氏矩阵;
Q代表一个转换矩阵,用于将融合特征投影到要学习的潜在语义空间内;
3.3)添加约束表达,使得集合M1中原始遥感图像的图像特征与联合文本特征之间的距离小于集合M2中原始遥感图像的图像特征与联合文本特征之间的距离;所述约束表达为:
其中,H的表达为:
3.4)利过梯度下降法来求解最终要优化的损失函数,所述损失函数表达式为:
3.5)将步骤3.2)中的距离代入步骤3.4)得到的损失函数表达式中,求解得到所述Q,从而将步骤2.3)得到的融合特征投影到要学习的潜在语义空间内。
4)生成遥感图像的描述:
4.1)从测试样本集中任意选取一张原始遥感图像作为测试图像;
4.2)利用预训练好的深度神经网络提取所述测试图像的图像特征;
4.3)在步骤3)得到的潜在语义空间里,度量步骤4.2)提取的测试图像的图像特征与步骤2.2)提取的联合文本特征的距离(度量方法与步骤3.2)相同),将距离最小的联合文本特征对应的五句标注文本作为所述测试图像的描述文本并输出。
注:
1、上述步骤2.1)和步骤4.2)可以采用预训练好的深度神经网络VGG16、VGG19、AlexNet、GoogLeNet或ResNet等进行遥感图像特征提取,神经网络及提取方法具体参见文献“[K.Simonyan and A.Zisserman.(2014).“Very deep convolutional networks forlarge-scale image recognition.”[Online].Available:https://arxiv.org/abs/1409.1556],AlexNet[A.Krizhevsky,I.Sutskever,and G.E.Hinton,“ImageNetclassification with deep convolutional neural networks,”inProc.Int.Conf.Neural Inf.Process.Syst.,2012,pp.1097–1105.],GoogLeNet[C.Szegedy et al.,“Going deeper with convolutions,”in Proc.IEEEConf.Comput.Vis.Pattern Recognit.,Jun.2015,pp.1–9.],ResNet[K.He,X.Zhang,S.Ren,and J.Sun,“Deep residual learning for image recognition,”in Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition,2016,pp.770–778.]”。
2、上述步骤2.2.3)中采用的词向量为现有技术,例如文献“J.Pennington,R.Socher,and C.Manning,“Glove:Global vectors forword representation,”inProceedings of the Conference on EmpiricalMethods in Natural LanguageProcessing,2014,pp.1532–1543.”中所公开的词向量。
技术效果实验验证:
1.仿真条件
在中央处理器为Intel(R)Xeon(R)CPU E5-2650V4@2.20GHz、内存500G、Ubuntu14.04.5操作系统上,运用Python软件进行仿真。
实验中使用的遥感图像数据库为公开的数据集RSICD。
2.仿真内容
在RSICD数据集上,完成本发明的方法。RSICD数据集的划分标准为90%训练,10%测试。为了证明本发明的有效性,我们选取了四个对比方法进行比较,所选取的四个对比方法为:BOW+COS(Bag Of Words+Cosine)、G-ML(Glove+Metric Learning)、G-LSML(Glove+Least Square Metric Learning)和DeViSE(Deep Visual-Semantic Embedding)。其中,
1)BOW+COS是在文献“M.Hodosh,P.Young,and J.Hockenmaier,Framing imagedescription as a ranking task:Data,models and evaluation metrics,Journal ofArtificial Intelligence Research,vol.47,pp.853–899,2013.”中提出的。
2)G-ML在文献“J.Pennington,R.Socher,and C.Manning,Glove:Global vectorsfor word representation,in Proceedings of the Conference on Empirical Methodsin Natural Language Processing,2014,pp.1532–1543.”中有详细介绍。
3)G-LSML是在文献“E.Y.Liu,Z.Guo,X.Zhang,V.Jojic,and W.Wang,Metriclearning from relative comparisons by minimizing squared residual,inProceedings of the IEEE International Conference on Data Mining,Brussels,Belgium,2012,pp.978–983.”中提出的。
4)DeViSE在文献“A.Frome,G.S.Corrado,J.Shlens,S.Bengio,J.Dean,T.Mikolovet al.,Devise:A deep visual-semantic embeddingmodel,in Proceedingsof theAdvances in Neural Information Processing Systems,2013,pp.2121–2129.”中有详细介绍。
按照本发明的步骤进行试验,得到本方法的实验结果,再在同样的数据集上完成对比方法的实验。
使用的评价标准是针对图像描述算法公认的评价指标,包括BLEU-1、BLEU-2、BLEU-3、BLUE-4、METEOR、ROUGE_L、CIDEr和SPICE。BLEU代表的是生成句子中单词的数量和标准句子的单词重合度,其中后缀1、2、3、4分别代表连续多少个单词相似。METEORT通过学习生成句子和标准句子之间的映射来评价句子的生成质量。ROUGE_L通过计算准确率和召回率的加权调和平均来评价句子质量。CIDEr从词频和逆文本频率指数来衡量生成句子的好坏。SPICE从语义图结构的角度来评价生成句子的质量。指标得分越高,代表句子描述的效果越好,实验结果如下表所示:
BOW+COS gML gLSML DeViSE 本发明
BLEU-1 29.65 29.52 29.52 30.68 57.59
BLEU-2 11.28 7.99 7.99 11.38 38.59
BLEU-3 5.81 3.53 3.53 5.58 28.32
BLEU-4 3.39 1.57 1.57 3.07 22.17
METEOR 9.61 11.35 11.35 9.73 21.28
ROUGE_L 25.09 25.97 25.97 25.63 44.55
CIDEr 12.89 16.86 16.86 12.44 52.97
SPICE 6.47 7.00 7.00 5.64 19.85

Claims (6)

1.基于联合潜在语义嵌入的遥感图像描述方法,其特征在于,包括以下步骤:
1)构建训练样本集和测试样本集:
将数据库中的原始遥感图像及其对应的标注进行划分,将一部分原始遥感图像及其对应的标注划入训练样本集,其余划入测试样本集;
2)对训练样本集中的原始遥感图像和其对应的标注文本进行联合表达:
2.1)利用预训练好的深度神经网络提取每张原始遥感图像的图像特征;
2.2)利用预训练好的词向量提取每张原始遥感图像所对应的五句标注文本的联合文本特征;
2.3)将步骤2.1)提取的图像特征和步骤2.2)提取的联合文本特征进行融合,得到每张遥感图像及其对应标注文本的融合特征;
3)学习潜在语义空间:
利用添加约束的度量学习,学习所述融合特征的潜在语义空间,将所述融合特征映射到要学习的潜在语义空间内;
4)生成遥感图像的描述:
4.1)从测试样本集中任意选取一张原始遥感图像作为测试图像;
4.2)利用预训练好的深度神经网络提取所述测试图像的图像特征;
4.3)在步骤3)得到的潜在语义空间里,度量步骤4.2)提取的测试图像的图像特征与步骤2.2)提取的联合文本特征的距离,将距离最小的联合文本特征对应的五句标注文本作为所述测试图像的描述文本。
2.根据权利要求1所述的基于联合潜在语义嵌入的遥感图像描述方法,其特征在于:
步骤1)在划分时,将数据库中90%的原始遥感图像及其对应的标注划入训练样本集,10%的原始遥感图像及其对应的标注划入测试样本集。
3.根据权利要求1所述的基于联合潜在语义嵌入的遥感图像描述方法,其特征在于:步骤2.1)中的所述深度神经网络采用VGG16、VGG19、AlexNet、GoogLeNet或ResNet。
4.根据权利要求1或2或3所述的基于联合潜在语义嵌入的遥感图像描述方法,其特征在于:步骤2.2)具体为:
2.2.1)找到训练样本集中所有标注文本中最长的标注文本,将它的长度作为标准长度;所述长度为句子中单词的个数;
2.2.2)将当前待进行特征提取的原始遥感图像所对应五句标注文本中,长度小于所述标准长度的标注文本的末尾用零填充,零的个数为当前标注文本与所述最长的标注文本相比所缺少的单词个数;
2.2.3)用预训练好的词向量分别提取五句标注文本中每个单词的特征,在提取特征过程中,当遇到步骤2.2.2)所填充的零时,将每一个步骤2.2.2)所填充的零用长度为词向量维度的零向量替代,得到五句标注文本的特征表达;
2.2.4)将步骤2.2.3)得到的五句标注文本的特征表达首尾相接,得到当前原始遥感图像对应的五句标注文本的联合文本特征xca
xca=(v11,...,vij,...,v5L)
其中:
vij代表提取的第i个标注文本的第j个单词的特征;
L是所述标准长度。
5.根据权利要求4所述的基于联合潜在语义嵌入的遥感图像描述方法,其特征在于:步骤2.3)是采用降维方法,将训练样本集中每张原始遥感图像的图像特征和其对应的联合文本特征的维度调整为一致,并进行特征融合,得到融合特征。
6.根据权利要求4所述的基于联合潜在语义嵌入的遥感图像描述方法,其特征在于,步骤3)具体为:
3.1)将训练样本集中每张原始遥感图像的图像特征和与其对应的联合文本特征作为集合M1的元素将每张原始遥感图像的图像特征和与其不对应的联合文本特征作为集合M2的元素其中:
为训练样本集中第n个原始遥感图像的图像特征;
为训练样本集中第m个原始遥感图像对应的标注文本的联合文本特征;
3.2)计算集合M1和M2中原始遥感图像的图像特征与联合文本特征之间的距离
其中:
P代表要学习的马氏矩阵;
Q代表一个转换矩阵,用于将融合特征投影到要学习的潜在语义空间内;
3.3)添加约束表达,使得集合M1中原始遥感图像的图像特征与联合文本特征之间的距离小于集合M2中原始遥感图像的图像特征与联合文本特征之间的距离;所述约束表达为:
其中,H的表达为:
3.4)利过梯度下降法来求解最终要优化的损失函数,所述损失函数表达式为:
3.5)将步骤3.2)中的距离代入步骤3.4)得到的损失函数表达式中,求解得到所述Q,从而将步骤2.3)得到的融合特征投影到要学习的潜在语义空间内。
CN201811584864.7A 2018-12-24 2018-12-24 基于联合潜在语义嵌入的遥感图像描述方法 Active CN109740471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811584864.7A CN109740471B (zh) 2018-12-24 2018-12-24 基于联合潜在语义嵌入的遥感图像描述方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811584864.7A CN109740471B (zh) 2018-12-24 2018-12-24 基于联合潜在语义嵌入的遥感图像描述方法

Publications (2)

Publication Number Publication Date
CN109740471A true CN109740471A (zh) 2019-05-10
CN109740471B CN109740471B (zh) 2021-06-22

Family

ID=66359683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811584864.7A Active CN109740471B (zh) 2018-12-24 2018-12-24 基于联合潜在语义嵌入的遥感图像描述方法

Country Status (1)

Country Link
CN (1) CN109740471B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287355A (zh) * 2019-05-16 2019-09-27 中国科学院西安光学精密机械研究所 基于检索话题记忆网络的遥感图像描述方法
CN110688502A (zh) * 2019-09-09 2020-01-14 重庆邮电大学 一种基于深度哈希和量化的图像检索方法及存储介质
CN111598041A (zh) * 2020-05-25 2020-08-28 青岛联合创智科技有限公司 一种用于物品查找的图像生成文本方法
CN113610025A (zh) * 2021-08-13 2021-11-05 天津大学 一种多模型综合的遥感影像场景描述方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893573A (zh) * 2016-03-31 2016-08-24 天津大学 一种基于地点的多模态媒体数据主题提取模型
US20180268195A1 (en) * 2016-01-27 2018-09-20 Shenzhen University Gabor cube feature selection-based classification method and system for hyperspectral remote sensing images
CN108960330A (zh) * 2018-07-09 2018-12-07 西安电子科技大学 基于快速区域卷积神经网络的遥感图像语义生成方法
CN109003677A (zh) * 2018-06-11 2018-12-14 清华大学 病历数据结构化分析处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268195A1 (en) * 2016-01-27 2018-09-20 Shenzhen University Gabor cube feature selection-based classification method and system for hyperspectral remote sensing images
CN105893573A (zh) * 2016-03-31 2016-08-24 天津大学 一种基于地点的多模态媒体数据主题提取模型
CN109003677A (zh) * 2018-06-11 2018-12-14 清华大学 病历数据结构化分析处理方法
CN108960330A (zh) * 2018-07-09 2018-12-07 西安电子科技大学 基于快速区域卷积神经网络的遥感图像语义生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QU B , LI X , TAO D: "Deep Semantic Understanding of High Resolution", 《2016 INTERNATIONAL CONFERENCE ON COMPUTER,INFORMATION AND TELECOMMUNICATION SYSTEMS (CITS)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287355A (zh) * 2019-05-16 2019-09-27 中国科学院西安光学精密机械研究所 基于检索话题记忆网络的遥感图像描述方法
CN110688502A (zh) * 2019-09-09 2020-01-14 重庆邮电大学 一种基于深度哈希和量化的图像检索方法及存储介质
CN110688502B (zh) * 2019-09-09 2022-12-27 重庆邮电大学 一种基于深度哈希和量化的图像检索方法及存储介质
CN111598041A (zh) * 2020-05-25 2020-08-28 青岛联合创智科技有限公司 一种用于物品查找的图像生成文本方法
CN113610025A (zh) * 2021-08-13 2021-11-05 天津大学 一种多模型综合的遥感影像场景描述方法
CN113610025B (zh) * 2021-08-13 2022-08-09 天津大学 一种多模型综合的遥感影像场景描述方法

Also Published As

Publication number Publication date
CN109740471B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
Li et al. Learning deep semantic segmentation network under multiple weakly-supervised constraints for cross-domain remote sensing image semantic segmentation
Yang et al. Label-driven reconstruction for domain adaptation in semantic segmentation
Guo et al. CDnetV2: CNN-based cloud detection for remote sensing imagery with cloud-snow coexistence
CN109359559B (zh) 一种基于动态遮挡样本的行人再识别方法
CN111368815A (zh) 一种基于多部件自注意力机制的行人重识别方法
CN109740471A (zh) 基于联合潜在语义嵌入的遥感图像描述方法
CN108960330B (zh) 基于快速区域卷积神经网络的遥感图像语义生成方法
Gao et al. Multi‐dimensional data modelling of video image action recognition and motion capture in deep learning framework
CN105989336B (zh) 基于带权重的解卷积深度网络学习的场景识别方法
CN110046271B (zh) 一种基于声音指导的遥感图像描述方法
Zhang et al. A GANs-based deep learning framework for automatic subsurface object recognition from ground penetrating radar data
CN112418351B (zh) 基于全局与局部上下文感知的零样本学习图像分类方法
CN115761222B (zh) 图像分割方法、遥感图像分割方法以及装置
CN110490894A (zh) 基于改进的低秩稀疏分解的视频前背景分离方法
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
CN113032601A (zh) 一种基于判别性提升的零样本草图检索方法
CN110705384B (zh) 一种基于跨域迁移增强表示的车辆再识别方法
Gao et al. Road extraction using a dual attention dilated-linknet based on satellite images and floating vehicle trajectory data
CN114187506A (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
CN109583371A (zh) 基于深度学习的陆标信息提取与匹配方法
CN114511787A (zh) 一种基于神经网络的遥感图像地物信息生成方法及其系统
Chavhan et al. A novel actor dual-critic model for remote sensing image captioning
Bashmal et al. Language Integration in Remote Sensing: Tasks, datasets, and future directions
Xu et al. MMT: Mixed-Mask Transformer for Remote Sensing Image Semantic Segmentation
Wolters et al. Classification of large-scale remote sensing images for automatic identification of health hazards: Smoke detection using an autologistic regression classifier

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant