CN106815323B - 一种基于显著性检测的跨域视觉检索方法 - Google Patents

一种基于显著性检测的跨域视觉检索方法 Download PDF

Info

Publication number
CN106815323B
CN106815323B CN201611226984.0A CN201611226984A CN106815323B CN 106815323 B CN106815323 B CN 106815323B CN 201611226984 A CN201611226984 A CN 201611226984A CN 106815323 B CN106815323 B CN 106815323B
Authority
CN
China
Prior art keywords
image
region
target
retrieval
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611226984.0A
Other languages
English (en)
Other versions
CN106815323A (zh
Inventor
李静
郝学韬
李聪聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201611226984.0A priority Critical patent/CN106815323B/zh
Publication of CN106815323A publication Critical patent/CN106815323A/zh
Application granted granted Critical
Publication of CN106815323B publication Critical patent/CN106815323B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于显著性检测的跨域视觉检索方法。首先利用每个超像素区域边界连接值,赋予各区域不同的显著性值,获取主体目标区域;然后对数据库中的目标图像进行多尺度处理,对主体目标区域提取特征,获取目标图像特征模板;对查询图像的主体目标区域进行特征提取和线性分类器的训练,通过大量的负样本迭代训练得到优化后的查询图像特征模板;最后检索时,根据每个目标图像特征模板与查询图像特征模板的匹配度,返回响应得分最高的区域作为最终的检索结果。本发明通过对主体区域的显著性检测,降低了背景区域对检索结果的影响,在跨域视觉检索中有效提高了检索精度和效率,具有良好的鲁棒性。

Description

一种基于显著性检测的跨域视觉检索方法
技术领域
本发明属于图像处理和计算机视觉技术领域,尤其涉及一种基于显著性检测的跨域视觉检索方法。
背景技术
跨域视觉检索(Cross-domain Visual Retrieval)是计算机视觉领域非常具有前景的技术之一。随着成像传感器性能的飞速发展和类型的不断丰富,对同一事物的图像获取手段日益多样,各类图像数量也正以指数级别快速增长。为了充分地利用这些数字资源,往往需要对不同成像条件或者不同载体下获取的同一事物的跨域图像进行匹配检索。例如:互联网上同一处建筑物油画到自然照片的检索、生活中警方需要嫌疑人素描画像与人脸库中真实照片进行匹配检索、军事上为了提高军事作战效率常常需要多种传感器图像综合分析等等。然而大多数现有的图像检索技术是针对有较高的场景相似度的同域图像的,并不能有效地解决跨域图像检索问题。跨域视觉检索不仅可以提高检索的广度和检索的机动性,还能更进一步推动相关产业的智能化和社会的信息化。因此跨域视觉检索具有重要的理论意义和广阔的应用前景。近年来,视觉检索技术不断提升发展,但针对跨域图像间的视觉检索算法研究却不多。2008年,第二炮兵装备研究院针对不同传感器(可见光、红外、雷达)所呈现的跨域图像,提出了基于区域的匹配检索算法和基于特征的匹配检索算法,但这两种方法只是适用于三种特定域图像的检索,可应用范围较为有限,并不适用于复杂场景下跨域图像的检索。2011年卡耐基梅隆的研究团队提出了基于数据驱动的跨域匹配检索方法,该方法采用了机器学习的理念训练优化特征向量,但是单一的特征向量提取方式和场景复杂程度的增加会极大地降低匹配检索的精确度。随后2013年南开大学图像处理团队提出了一种多特征描述子融合的方法。这种方法虽然在检索精度上有所提高,但复杂背景的干扰经常会导致目标被错误检索为背景区域。这种情况的发生主要是因为现有的跨域检索技术没有考虑图像中目标区域与背景区域对检索的重要性不同。
综上所述,根据现有的跨域检索方法存在的不足,本发明提出的算法突出了图像的主体目标区域,降低了背景无关区域的影响,同时还缩小了检索范围,减少了检索时耗,提高了检索精度和效率。
发明内容
本发明的目的在于提出了一种基于显著性检测的跨域视觉检索方法,目的旨在降低了背景无关区域的影响,同时还缩小了检索范围,减少了检索时耗,提高了检索精度和效率。
本发明是这样实现的,一种基于显著性检测的跨域视觉检索方法,所述基于显著性检测的跨域视觉检索方法包括:利用每个超像素区域边界连接值,赋予各区域不同的显著性值,获得主体目标区域;然后对数据库中的目标图像进行多尺度处理,对主体目标区域提取特征,获取目标图像特征模板;对查询图像的主体目标区域进行特征提取和线性分类器的训练,通过大量的负样本迭代训练得到优化后的查询图像特征模板;最后检索时,根据每个目标图像特征模板与查询图像特征模板的匹配度,返回响应得分最高的区域作为最终的检索结果。
进一步,所述基于显著性检测的跨域视觉检索方法包括以下步骤:
步骤一,采用显著性检测方法对查询图像和目标图像进行预处理,提取图像中主体目标区域。这样极大地抑制了图像中无关的背景成分,凸显出对检索起关键作用的主体目标部分,从而有效地防止了查询图像检索为目标图像背景情况的发生;
步骤二,对数据库中目标图像进行多尺度处理并提取特征,得到目标图像特征模板。这样每个目标图像都有多个尺度的特征模板,有效了提高了尺度鲁棒性;
步骤三,对查询图像的主体目标区域进行特征提取,得到图像初始特征模板。
步骤四,对查询图像初始特征模板进行优化。利用线性分类器将单一的正样本图像(查询图像)在大量的负样本图像集中训练,获得查询图像优化后的特征向量。这样突出了查询图像独一无二的特征,弱化背景等不相干成分的影响。
步骤五,对目标图像特征模板与查询图像的特征模板进行匹配度的计算,得到匹配响应得分。
步骤六,利用非极大值抑制来消除检索过程中冗余的检测窗口,并选取其中匹配响应得分最高的区域作为最佳的匹配检索结果。
进一步,所述步骤一具体包括:
第一步,对图像进行超像素化处理,将图像分为若干个超像素区域。然后根据每个区域和相邻区域之间的欧式距离来计算最短路径积累的边界权重,进而可以得到每个超像素区域p的跨度面积;
第二步,计算每个超像素区域边界的长度,并且结合第一步得到的跨度面积,计算各区域的边界连接值。它反映了区域与边界的连接程度,背景区域往往比主体目标区域边界连接值大;
第三步,由第二步得到边界连接值映射得到每个超像素区域的背景权重,然后可以计算得到每个区域的背景差异权重。图像的主体目标区域往往比背景区域获得较大的权值,用以突出了主体目标区域;
第四步,计算所有超像素区域的显著性值,这里我们转化为最优化目标损耗函数的问题,目标损耗函数被设计为抑制背景区域并突出前景部分的线性函数,然后最小化损耗函数即可获得图像的显著值图;
第五步,对图像显著值图进行阈值分割,最终得到图像的主体目标区域。阈值的设定是根据实验分析得到的;
进一步,所述步骤四中线性分类器学习训练时首先由一个正样本建立正样本数据集P,其中包含对查询图像的一些小的变化(移位,尺度和方向的变化),并对每一次变化后的图像提取特征模板,从而减小因为图像校准而引起的错误,提高鲁棒性。然后先在初始负样本集N中训练出一个模型,收集被这个初始模型错误分类的负样本组成一个负样本难例集,再用此负样本难例集更新训练模型信息。我们在线性分类器训练学习权重即可得到优化后的特征权重模板。
更具体地,本发明提供的基于显著性检测的跨域视觉检索方法,通过显著性检测计算显著性值,获得图像主体目标区域,在后续检索环节中只关注图像的主体目标区域,缩小了检索范围,减少了背景无关信息的影响;通过线性分类器的训练,利用一个正样本和大量负样本迭代得到优化的查询图像特征模板,解决了跨域图像很难同时找到多个正样本的问题,突出了图像本身“与众不同的特征”。有利于避免出现目标被错误检索为无关区域的情况;利用尺度金字塔得到数据库中多个尺度的目标图像,这样大大地提高了检索的尺度鲁棒性。针对素描、水彩、油画三类图像与真实照片之间跨域检索进行了实验。实验利用10个不同类别的图像(如鸟类、马类、汽车类等)作为查询图像,数据库中共包含2900多张目标图像。经过实验验证,本发明检索结果正确率在60%以上,尤其是素描图像检索正确率可达85%以上,实现了复杂场景下跨域图像间的视觉检索。
附图说明
图1是本发明实施例提供的基于显著性检测的跨域视觉检索方法流程图。
图2是本发明实施例提供的实施例1的算法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作详细的描述。
如图1所示,本发明实施例提供的基于显著性检测的跨域视觉检索方法包括以下步骤:
S101:对图像进行显著性检测,保留图像中的主体目标区域;
S102:而数据库中目标图像进行多尺度处理,针对主体目标区域提取特征模板。对查询图像的主体目标区域进行特征提取和线性分类器训练,通过负样本迭代训练得到优化后的查询图像特征模板;
S103:目标图像特征模板与查询图像模板进行匹配检索,返回匹配度最高的作为检索结果。
下面结合附图对本发明的应用原理作进一步的描述。
本发明实施例提供的基于显著性检测的跨域视觉检索方法,流程图如图2所示,具体包括如下步骤:
(1)利用RBD(Robust Background Detection,RBD)显著性检测的方法提取图像的主体目标区域,弱化背景区域影响。这里依次对油画、自然照片和素描进行了实验。
(1a)利用SLIC算法对图像进行超像素化处理,得到若干超像素区域p并计算每个区域的跨度面积:
Figure DEST_PATH_GDA0001228587480000051
其中N是超像素区域的个数,参数σclr=10,dgeo(p,pi)是两个区域在CLE-Lab颜色空间上最短路径积累的边界权重(其中最短路径是通过计算欧式距离得到的),S(p,pi)描述了超像素pi对p贡献程度。
(1b)计算每个超像素区域的边界长度:
Figure DEST_PATH_GDA0001228587480000052
当超像素区域p位于图像边界上时δ(·)=1,其他情况下为0。根据各区域的边界长度和跨度面积,计算获得每个区域的边界连接性:往往我们这里得到的背景部分的边界连接值较大而目标区域较小。
(1c)计算每个区域的背景差异权重:
Figure DEST_PATH_GDA0001228587480000061
其中
Figure DEST_PATH_GDA0001228587480000062
dspa(p,pi)是超像素p和pi的中心距离。BndCon(pi)是超像素pi在(1b)中得到的边界连接值。目标区域比背景区域中获得了更高的
Figure DEST_PATH_GDA0001228587480000064
它们的对比度提高了,而使目标区域比背景区域获得较大的权值以弱化背景区域。
(1d)这时计算目标显著性问题转化为对所有超像素区域显著性值进行最优化。这里我们设计目标函数分配目标区域权重为1,背景区域权重为0。假设N个超像素的显著性值为
Figure DEST_PATH_GDA0001228587480000065
那么目标损耗函数就定义为:
Figure DEST_PATH_GDA0001228587480000066
其中
Figure DEST_PATH_GDA0001228587480000067
分别为背景权重和前景权重,
Figure DEST_PATH_GDA0001228587480000068
dapp(pi,pj)为区域pi和pj在CLE-Lab颜色空间中的欧式距离。最小化损耗函数即可得到最优化的显著值图。如图2所示。显著性值越高的部分越亮,值越低的部分越暗。
(1e)对(1d)得到的显著值图进行主体成分的提取,因为所得显著性值均在0到1范围内。经实验分析将阈值设定为0.01,大于0.01时判定为主体元素,否则判定为背景元素。如图2所示,这样就获得了阈值过滤后的主体成分图。我们可以看到本方法能较好的提取出目标区域,既不会因为阈值过小而忽略掉关键的信息元素,也不会因为阈值过大使大量不相关元素干扰检索效果。
(2)利用方向梯度直方图(Histogram of Oriented Gradient,HOG)对经过显著性检测预处理后的查询图像提取特征,得到HOG特征向量模板。在HOG特征中,每个胞元(cell)取8*8的像素大小和2*2的块域(block),如图2所示,得到特征向量矩阵Z。然后将特征向量矩阵Z转化为列向量并与图像特征均值相减,得到查询图像Iq初步优化后的特征向量权重模板Xq。实验依次对三种不同域的图像(水彩画、自然照片、素描)较好地提取出图像的梯度信息,体现全局特征。
(3)利用LibSVM线性分类器将单一的正样本图像(查询图像)在1500张的负样本图像集中训练。这里我们为了提高检索速度,首先对特征模板进行降维,将向量维度限制在4000-5000维,相当于一张HOG模板中有150个胞元。然后建立额外的正样本数据集P,并对每一次变化后的图像提取特征模板Xi。最后随机选取1500张来自VOC 2007训练数据集的图片作为负样本训练图像。学习训练时我们利用自举法(Bootstrap)先将初始负样本集训练出一个模型,再收集被初始模型错误分类的负样本难例集再次更新训练模型。LibSVM分类器学习权重向量wq即为最优化凸目标函数L(wq)(找极小值):
Figure DEST_PATH_GDA0001228587480000071
其中图像的负样本集N(1500张随机从Flickr中挑选出的图片),正则参数λ=100,标准的损失函数h(x)=max(0,1-x)。对于整个过程设置迭代不超过10次。因为过多的迭代并不能很好地提高系统性能且增加了运行的时耗。负样本难例挖掘的方法可以仅仅通过少量的负样本集去处理成百上千的负样本窗口得到。
(4)对显著性预处理后得到的目标图像主体成分图进行HOG特征金字塔处理,一共尺度变化25次(每一层为原图像尺度的0.8,0.75,0.7等),再对每一层进行HOG特征向量模板的提取。
(5)对目标图像进行特征映射,计算每个目标图像与查询图像间的响应得分。首先将检测窗口中的目标图像元素转化为一个数组矩阵,其中的矩阵向量是从图像中相应区域计算出的d维特征向量组成,每个特征向量矩阵表示目标图像的一个区域。然后将检测窗口与查询图像的特征权重模板F进行匹配,计算响应得分值:
Figure DEST_PATH_GDA0001228587480000072
它是特征向量权重与以(x,y)为左上角w*h的子窗口特征向量的点积。
(6)利用非极大值抑制来消除对目标物体匹配过程中冗余的检测窗口,并选取其中响应得分最高的检测窗口作为最佳的匹配检索结果。
本发明对三种跨域图像(素描、油画、彩色画)进行实验验证,检索结果根据得分高低依次从左到右显示。本发明可以较为精准地找到目标图像中所要检索的区域,正确检索率在60%左右,相比于其他方法提升了约10%的准确率。最终测试过程中采用的查询图像来自于从Flickr图片集中随机挑选的图像,目标图像大多来自VOC 2007图像数据集。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于显著性检测的跨域视觉检索方法,其特征在于,所述基于显著性检测的跨域视觉检索方法利用每个超像素区域边界连接值,赋予各区域不同的显著性值,获取主体目标区域;对数据库中的目标图像进行多尺度处理,并对主体目标区域提取特征,获取目标图像特征模板;对查询图像主体目标区域进行特征提取和线性分类器的训练,通过大量的负样本迭代训练得到优化后的查询图像特征模板;最后检索时,根据每个目标图像特征向量模板与查询图像权重模板的匹配度,返回响应得分最高的区域作为最终的检索结果;
所述基于显著性检测的跨域视觉检索方法包括以下步骤:
步骤一,采用显著性检测方法对图像进行预处理,获得主体目标区域,过滤掉背景的干扰;
步骤二,对数据库中的目标图像主体区域进行多尺度处理并提取各尺度的特征模板;
步骤三,对查询图像的主体目标区域进行特征提取,得到图像初始特征模板;
步骤四,对查询图像初始特征模板进行优化;利用线性分类器通过对一个正样本和大量负样本迭代训练,得到优化后特征模板;
步骤五,计算目标图像特征模板与查询图像的特征模板的匹配度,得到响应得分值;
步骤六,利用非极大值抑制来消除检索过程中冗余的检索窗口,并选取其中响应得分最高的区域作为最佳的匹配检索结果;
所述步骤一具体包括:
第一步,对图像进行超像素化处理,将图像分为若干个超像素区域;然后根据各区域与相邻区域边界权重,计算得到各区域的跨度面积;
第二步,根据第一步的结果,计算每个超像素区域的边界长度,进而获得图像的边界连接值;
第三步,将各区域的边界连接值映射为每个区域的权重,用来计算每个区域的背景差异权重;
第四步,计算目标显著性问题,即对图像中所有超像素区域的显著性值进行最优化;设计目标函数使其弱化背景区域突出主体目标区域,最小化损耗函数,就得了图像的显著值图;
第五步,对得到的显著值图进行主体成分的提取,通过阈值设定最终得到图像的主体目标区域。
2.如权利要求1所述的基于显著性检测的跨域视觉检索方法,其特征在于,所述步骤三具体包括:线性分类器学习训练时首先由一个正样本建立正样本数据集P,其中包含对查询图像的一些小的变化;然后先在初始负样本集N中训练出一个模型,收集被错误分类的负样本组成一个负样本难例集,再用此负样本难例集更新训练模型信息;在线性分类器训练学习权重即可得到优化后的特征权重模板。
3.一种利用如权利要求1~2任意一项所述基于显著性检测的跨域视觉检索方法的计算机视觉处理系统。
CN201611226984.0A 2016-12-27 2016-12-27 一种基于显著性检测的跨域视觉检索方法 Active CN106815323B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611226984.0A CN106815323B (zh) 2016-12-27 2016-12-27 一种基于显著性检测的跨域视觉检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611226984.0A CN106815323B (zh) 2016-12-27 2016-12-27 一种基于显著性检测的跨域视觉检索方法

Publications (2)

Publication Number Publication Date
CN106815323A CN106815323A (zh) 2017-06-09
CN106815323B true CN106815323B (zh) 2020-02-07

Family

ID=59110349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611226984.0A Active CN106815323B (zh) 2016-12-27 2016-12-27 一种基于显著性检测的跨域视觉检索方法

Country Status (1)

Country Link
CN (1) CN106815323B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871307A (zh) * 2017-07-19 2018-04-03 苏州闻捷传感技术有限公司 基于空间概率pca与nsct的全色图像锐化方法
SG11202004469WA (en) * 2017-11-15 2020-06-29 Angel Playing Cards Co Ltd Recognition system
CN108596057B (zh) * 2018-04-11 2022-04-05 重庆第二师范学院 一种基于人脸识别的信息安全管理系统
CN109190473A (zh) * 2018-07-29 2019-01-11 国网上海市电力公司 一种“机器视觉理解”在电力远程监控中的应用
CN110659680B (zh) * 2019-09-16 2022-02-11 西安电子科技大学 一种基于多尺度卷积的图像patch匹配方法
CN112749705B (zh) * 2019-10-31 2024-06-11 深圳云天励飞技术有限公司 训练模型更新方法及相关设备
CN112182272B (zh) * 2020-09-23 2023-07-28 创新奇智(成都)科技有限公司 图像检索方法及装置、电子设备、存储介质
CN113656630A (zh) * 2021-08-17 2021-11-16 北京百度网讯科技有限公司 检索图像的方法、装置和系统
CN114926657B (zh) * 2022-06-09 2023-12-19 山东财经大学 显著性目标检测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509299A (zh) * 2011-11-17 2012-06-20 西安电子科技大学 基于视觉注意机制的图像显著区域检测方法
CN102509099A (zh) * 2011-10-21 2012-06-20 清华大学深圳研究生院 一种图像显著区域检测方法
CN103793717A (zh) * 2012-11-02 2014-05-14 阿里巴巴集团控股有限公司 判断图像主体显著性及训练其分类器的方法和系统
CN103996195A (zh) * 2014-05-26 2014-08-20 清华大学深圳研究生院 一种图像显著性检测方法
CN106250423A (zh) * 2016-07-25 2016-12-21 上海交通大学 基于部分参数共享的深度卷积神经网络跨域服装检索方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509099A (zh) * 2011-10-21 2012-06-20 清华大学深圳研究生院 一种图像显著区域检测方法
CN102509299A (zh) * 2011-11-17 2012-06-20 西安电子科技大学 基于视觉注意机制的图像显著区域检测方法
CN103793717A (zh) * 2012-11-02 2014-05-14 阿里巴巴集团控股有限公司 判断图像主体显著性及训练其分类器的方法和系统
CN103996195A (zh) * 2014-05-26 2014-08-20 清华大学深圳研究生院 一种图像显著性检测方法
CN106250423A (zh) * 2016-07-25 2016-12-21 上海交通大学 基于部分参数共享的深度卷积神经网络跨域服装检索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cross-domain Image Retrieval with a Dual Attribute-aware Ranking Network;Junshi Huang;《ICCV 2015》;20151231;第1062-1070页 *

Also Published As

Publication number Publication date
CN106815323A (zh) 2017-06-09

Similar Documents

Publication Publication Date Title
CN106815323B (zh) 一种基于显著性检测的跨域视觉检索方法
CN108304873B (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
Zhang et al. Deep-IRTarget: An automatic target detector in infrared imagery using dual-domain feature extraction and allocation
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
Nakamura et al. Scene text eraser
CN107633226B (zh) 一种人体动作跟踪特征处理方法
Huang et al. Saliency and co-saliency detection by low-rank multiscale fusion
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN111476251A (zh) 一种遥感影像匹配方法及装置
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
Shahab et al. How salient is scene text?
CN113505670B (zh) 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN113592894B (zh) 一种基于边界框和同现特征预测的图像分割方法
Li et al. Robust deep neural networks for road extraction from remote sensing images
Han et al. Research on remote sensing image target recognition based on deep convolution neural network
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN112580480A (zh) 一种高光谱遥感影像分类方法及装置
Liu et al. CAFFNet: channel attention and feature fusion network for multi-target traffic sign detection
Alsanad et al. Real-time fuel truck detection algorithm based on deep convolutional neural network
CN116977633A (zh) 地物要素分割模型训练方法、地物要素分割方法及装置
CN116469020A (zh) 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
Khoshboresh-Masouleh et al. Robust building footprint extraction from big multi-sensor data using deep competition network
CN117576149A (zh) 一种基于注意力机制的单目标跟踪方法
Schulz et al. Object-class segmentation using deep convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant