CN105389550A - 一种基于稀疏指引与显著驱动的遥感目标检测方法 - Google Patents
一种基于稀疏指引与显著驱动的遥感目标检测方法 Download PDFInfo
- Publication number
- CN105389550A CN105389550A CN201510717006.5A CN201510717006A CN105389550A CN 105389550 A CN105389550 A CN 105389550A CN 201510717006 A CN201510717006 A CN 201510717006A CN 105389550 A CN105389550 A CN 105389550A
- Authority
- CN
- China
- Prior art keywords
- background
- sub
- target
- block
- rarefaction representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于稀疏指引与显著驱动的遥感目标检测方法,其步骤为:①将输入的遥感图像分为子块,提取全局颜色特征聚类形成全局字典,同时提取图像边缘子块的颜色特征聚类形成背景字典;②分别利用所述全局字典和背景字典对输入的所有图像子块进行稀疏表示,得到全局和背景稀疏表示系数;③对步骤②得到的稀疏表示系数聚类生成全局和背景显著图;④对步骤③中所述全局和背景显著图进行平滑去噪后再利用贝叶斯融合得到最终显著图,获得显著目标区域;⑤对步骤④检测到的显著目标区域及采集的训练样本分别提取颜色特征和纹理特征,并用最大值约束稀疏编码模型进行稀疏表示;⑥利用步骤⑤获得的稀疏表示系数对所述显著目标区域进行目标类别识别。本发明可以准确、快速地从复杂背景中检测并识别出感兴趣的遥感目标,效果突出。
Description
技术领域
本发明属于计算机视觉与图像处理的应用领域,涉及针对遥感图像的稀疏驱动显著性检测方法和最大值约束稀疏模型的目标识别方法。该方法首先通过稀疏表示挖掘出图像子块间的类别信息,对遥感图像进行显著区域的提取,这些显著区域包含潜在目标,缩小了后续的目标检测或者识别的候选区域范围,然后再利用最大值约束稀疏编码模型对检测到的显著区域进行类别识别,这样不仅能快速对遥感图像中的显著目标定位,还能进一步判别出目标类别,在减少了算法目标搜索时间的同时,还提高了遥感目标的检测性能。
背景技术
遥感图像的目标检测技术无论对于军事领域还是民用领域都具有至关重要的意义。在军事领域,对于军事打击目标的检测需求来说,要求能够精确、快速地获得目标位置信息,以减少误检和漏检造成的损失。在民用方面,对于资源勘查、自然灾害评估和救援、城市规划、地理数据信息库的建立与更新等方面发挥着不可或缺的作用。遥感图像的物理属性决定了图像中感兴趣目标存在不同空间分布和时相变化等属性,根据目标在遥感图像中的成像特点,可将遥感图像中的目标分为四类:区域目标、点目标、线目标和结构目标。显著性检测的方法适用于区域目标(草地、水域、人工建筑群等)和结构目标(机场、油库等)的检测。近年来,视觉显著性检测被广泛应用在遥感目标的检测与识别中,通过提取遥感图像中感兴趣的区域来获得包含潜在目标的区域作为下一步检测或识别的对象。通过显著性检测,能够避免对背景区域进行全局遍历搜索,大大减少了计算量和检测时间,提高了检测和识别的效率。
综上所述,传统的显著性检测方法针对具有复杂背景和环境干扰的遥感图像的应用效果并不理想。单纯的利用底层特征来计算显著性,虽然简单却容易丢失显著区域的边界信息或者内部信息;而采用基于任务的自顶向下的方法,计算复杂且耗时。目前,部分显著性模型在底层特征的基础上学习到高层特征来计算图像的显著性,较比之前基于底层特征形成显著图有很大的改善,但是对于背景复杂的遥感图像来讲,仍然不能将目标区域全面、准确的提取出来。同时显著性检测的方法只提取出遥感图像中的显著区域,并不能对显著区域的类别进行识别,当图像中检测到多个显著区域时,单纯利用显著性检测的方法就很难判别显著区域的类别信息。因此,针对遥感图像,在进行显著性检测基础上还要利用分类器对显著区域进行识别,不仅能准确地对图像中的遥感目标定位,还可以判断出目标的类别信息。
发明内容
本发明提出一种基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:包括如下步骤:
步骤1:将输入的所述遥感图像分为若干个子块,提取全局子块的颜色特征,聚类形成全局字典,同时提取处于图像边界的子块的背景颜色特征,聚类形成背景字典;
步骤2:利用所述全局字典对输入的所述遥感图像的所有子块进行稀疏表示,得到全局稀疏表示系数,利用所述背景字典对输入的所述遥感图像的所有子块进行稀疏表示,得到背景稀疏表示系数;
步骤3:分别对所述全局稀疏表示系数和所述背景稀疏表示系数进行最大池化处理,将所述池化处理后的全局稀疏表示系数聚类生成全局显著图,将所述池化处理后的背景稀疏表示系数聚类生成背景显著图;
步骤4:采用目标偏置的高斯模型分别对所述全局显著图和所述背景显著图进行平滑去噪处理;
步骤5:对步骤4中平滑去噪处理后的所述全局显著图和所述背景显著图进行贝叶斯融合,得到最终的显著图即为图像显著性检测的最终结果,从而获得遥感图像中的显著目标区域;
步骤6:对步骤5检测到的显著目标区域以及事先采集的多个不同遥感目标的训练样本分别提取其颜色特征和纹理特征,并使用训练样本的颜色与纹理的级联特征聚类形成目标识别字典;
步骤7:利用所述识别字典分别对显著目标区域和训练样本进行最大值约束的稀疏表示,得到显著目标区域和训练样本的最大值约束的稀疏表示系数;
步骤8:利用训练样本的稀疏表示系数进行分类器训练,再对步骤5检测到的显著目标区域进行目标类别识别,从而实现遥感图像中显著目标的检测与识别。
本发明具有如下的优点和有益效果:
(1)、本发明提出了利用图像稀疏表示来挖掘图像子块的类别信息。本发明新提出了根据图像的稀疏表示来挖掘图像子块的类别信息,相对于传统的显著性检测方法,例如对比度或频域变换等,可以更好的提取目标区域的边缘,同时获得显著目标区域。对于高分辨率的遥感图像,检测效果极佳。
(2)、由于本发明利用了全局线索和背景先验相结合的方法,通过全局信息,获得全面的类别信息;通过背景先验,针对背景集合的稀疏表示,获得更加明确的类别信息。将二者结合之后,获得的类别信息更加全面、准确。
(3)、本发明采用目标偏置的方法,计算出显著图的目标中心,以此中心为高斯模型的中心对图像进行平滑,去除距离目标中心较远的噪声干扰,得到更加准确的显著图。
(4)、本发明采用了贝叶斯融合的方式,以得到的全局显著图或背景显著图作为先验,然后计算背景显著图或全局显著图的似然概率来得到更加有效的显著图。
(5)、本发明采用最大值约束稀疏编码模型对显著目标区域进行目标类别识别,相对传统稀疏编码模型,包含更多近邻信息,因此识别效果更为鲁棒。
(6)、本发明在利用显著性方法检测到遥感图像的显著目标区域后,又对该区域的类别属性进行了判别,解决了传统显著性检测方法无法判别检测到的显著区域是否为目标以及是什么目标的缺陷,为遥感目标检测提供了新的思路。
本发明提出一种基于稀疏指引与显著驱动的遥感目标检测方法,可以得到更准确,更完整,更加符合人眼视觉效果的显著目标区域,并能够准确识别出检测到的目标类别,对高分辨率遥感目标的准确定位与识别效果突出。
附图说明
图1本发明对遥感图像的稀疏驱动的显著性检测流程示意图
图2本发明的全局显著图生成的各步骤示意图
图3本发明中全局显著图、背景显著图和最终显著图之间区别示意图
图4本发明的实验效果图,a)单目标检测效果图,b)多目标检测效果图,c)油罐检测效果图
图5本发明对检测到的显著目标区域进行目标类别识别的结果图。
具体实施方式
参见图1所示,本发明针对基于稀疏指引与显著驱动的遥感目标检测方法,其具体实施步骤如下:
步骤1:将输入的所述遥感图像分为若干个子块,提取全局子块的颜色特征,聚类形成全局字典,同时提取处于图像边界的子块的背景颜色特征,聚类形成背景字典;
(1)构造全局字典
对于输入的所述遥感图像,将其划分T个子块,T为大于1的整数,采用LAB色彩空间的颜色特征来表示所述各子块,形成子块矩阵,对于全局集合来说,将第i个子块中颜色特征展开形成的矩阵定义为Glab(i),1≤i≤T,其中,G为矩阵名称,lab为色彩空间名称,i为某个子块,T为子块的个数;
其中K表示每个子块的大小,是子块中所有像素点的个数和,是一个数值,对于2×2的子块来说,K=4,则Glab(i)表示的是一个3行4列的向量,和分别表示第i个子块的LAB色彩空间中l通道、a通道和b通道的颜色特征值;将所述T个子块展开成一个基于全局信息的集合Glab;
Glab=[Glab(1),…Glab(t),…Glab(T)],t=(1,2,…,T)(2)
即
其中和分别是第t(1≤t≤T)个子块包含的LAB色彩空间中l通道、a通道和b通道第k(1≤k≤K)个像素的颜色特征值;对Glab使用k-means聚类(即k均值聚类算法),选取KD个聚类中心,则可生成KD维的全局字典DGlobal,其中KD表示字典的维数,通常为选定的常数,D表示字典Dictionary。
(2)构造背景字典
对于输入的所述遥感图像,提取四个边界的图像作为背景集合,所述四个边界共包括N个子块,其中N=2(W/Pwidth+H/Qheight)-4,其中W和H分别为输入图像的宽和高,Pwidth和Qheight分别为各子块的宽和高;
将第j个子块展开形成矩阵Blab(j),1≤j≤N,B为矩阵名称,lab为色彩空间名称,j为某个背景子块,N为背景子块的个数,结果如下式所示:
其中K表示每个子块的大小,是子块中所有像素点的个数和,和分别是第j个子块包含的LAB色彩空间中l通道、a通道和b通道第k(1≤k≤K)个像素的颜色特征值。将所述的N个子块展开生成基于背景信息的集合Blab,则
Blab=[Blab(1),…Blab(n),…Blab(N)],n=(1,2,…,N)(5)
即 n=(1,2,…,N),k=(1,2,…,K)(6)
其中和分别是第n个子块包含的LAB色彩空间中l通道、a通道和b通道第k个像素的颜色特征值;对Blab使用k-means聚类,选取KD个聚类中心,则可生成KD维的背景字典DBackground,KD表示字典的维数,为选定的常数,D表示字典Dictionary。
步骤2:利用所述全局字典对输入的所述遥感图像的所有子块进行稀疏表示,得到全局稀疏表示系数,利用所述背景字典对输入的所述遥感图像的所有子块进行稀疏表示,得到背景稀疏表示系数;
(1)全局信息的稀疏表示
当得到聚类后的全局字典DGlobal,再通过稀疏表示公式对全局信息集合中的每个子块Glab(i)进行学习,得到稀疏表示系数αGlobal(i)。稀疏表示公式为:
Glab(i)=DGlobalαGlobal(i)(7)
其中i表示第i个子块,αGlobal(i)表示第i个子块的稀疏表示系数。对全局信息集中的所有子块学习到的稀疏表示系数采用LASSO(最小化的绝对收缩和选择算子)进行优化,如下式所示:
其中β是大于0的常数,通过学习得到T个子块的稀疏表示系数集合,定义为全局稀疏表示系数αGlobal;
(2)背景信息的稀疏表示
当得到聚类后的背景字典DBackground后,再利用稀疏表示公式对背景信息中的每个子块进行学习,得到稀疏表示系数αBackground(j),稀疏表示公式为:
Blab(j)=DBackgroundαBackground(j)(9)
其中j表示第j个子块,αBackground(j)表示第j个子块的稀疏表示系数。对背景信息集中的所有子块学习到的稀疏表示系数采用LASSO(即最小化的绝对收缩和选择算子)进行优化,如下式所示:
其中β是大于0的常数,通过学习得到N个子块的稀疏表示系数集合,定义为背景稀疏表示系数αBackground。
步骤3:分别对所述全局稀疏表示系数和所述背景稀疏表示系数进行最大池化处理,将所述池化处理后的全局稀疏表示系数聚类生成全局显著图,将所述池化处理后的背景稀疏表示系数聚类生成背景显著图;
池化是指聚合高维特征得到低维特征,以防止过拟合的现象。最大池化(maxpooling)则是选择高维特征中最大值作为低维特征。对于学习得到的全局稀疏表示系数αGlobal和背景稀疏表示系数αBackground分别进行最大池化(即maxpooling),得到池化处理后的全局稀疏表示系数和背景稀疏表示系数对和分别利用k-means各自聚为两类,分别为目标类U和背景类Q。将得到的聚类标签值返回到各自的图像中,得到全局估计显著图EMGlobal和背景估计显著图EMBackground。
当得到全局估计图EMGlobal和背景估计图EMBackground后,将对这两幅估计图中的两类标签进行确定。根据背景先验的原理,目标不会全部出现在图像四个边界,可能会占据一个或者两个边界,那么在四个边界,目标出现的概率应该小于背景出现的概率,即PObject<PBackground。因此,定义,在估计图的四个边界中,概率较小的一类标签被定义为目标,而另一类则被定义为背景。因此,对标签进行赋值后得到二值图BM(i),如下式所示:
将子块聚成两类后,四个边界中同类个数较少的一类下标标记为目标类U,对应的二值图为BMU(i);个数较多的一类标记为背景类Q,对应的二值图为BMQ(i);其中,PObject为在边界上N个像素块中出现次数较少的子块U的概率,PBackground为在边界上N个子块中出现较多的子块Q的概率;将子块中所有稀疏表示系数的均值定义为显著性程度的值,则将该值返回到相应图像子块的每个像素点中得到初始显著图S(z)。
其中表示第i个子块池化处理后的稀疏表示系数,z表示每个像素点,M为原图像包含的所有的像素总数,mean表示平均函数。全局估计图EMGlobal和背景估计图EMBackground通过目标与背景的确认以及计算图像的显著性得分,最后分别得到全局显著图SGlobal(z)和背景显著图SBackground(z);
步骤4:采用目标偏置的高斯模型分别对所述全局显著图和所述背景显著图进行平滑去噪处理;采用目标偏置高斯模型对图像进行处理,计算出图像中潜在目标的中心位置,以目标中心为圆心,进行高斯平滑,高斯函数如下式所示:
其中σx,σy表示图像方差,为设定的常数,(x,y)表示中心点的坐标,(xz,yz)为任意点z的坐标。当x=0,y=0时,表示原点处于图像的中心位置。采用目标偏置的高斯模型,利用图像子块的标签值来计算潜在目标的中心位置,则目标中心点的坐标(x,y)为:
其中,S(u)和S(v)为S(z)中第u个和第v个子块,T为子块总数,(xu,yu)为第u个子块中目标点的坐标。将上式代入高斯公式即公式(13)中,即得到了基于初始显著图子块标签的目标偏置的高斯模型。通过该目标偏置的高斯模型G(z)与初始显著图S(z)的卷积可以得到平滑后的显著图S,如下式所示:
S=G(z)*S(z)(15)
全局初始显著图SGlobal(z)和背景初始显著图SBackground(z)经过目标偏置的高斯模型平滑后得到全局显著图SGlobal和背景显著图SBackground;
步骤5:对步骤4中平滑去噪处理后的所述全局显著图和所述背景显著图进行贝叶斯融合得到最终的显著图,即为显著性检测的最终结果。对于得到的全局显著图SGlobal和背景显著图SBackground,采取贝叶斯公式进行融合。贝叶斯公式如下式所示:
p(F)为显著图中前景出现的概率,p(Smap|F)为前景在显著图中出现的先验概率,p(Smap|B)为背景在显著图中出现的先验概率。选取全局显著图SGlobal或背景显著图SBackground作为先验,然后利用另外一个计算似然概率。在此,我们将SGlobal作为先验,SBackground用来计算似然概率,公式如下所示:
S=p(FGlobal|SBackground)+p(FBackground|SGlobal)(17)
其中,FGlobal和FBackground分别表示从显著图中分割出的前景和背景。p(FGlobal|SBackground)表示在背景显著图为先验的情况下,前景即目标区域的似然概率;p(FBackground|SGlobal)表示在全局显著图为先验的情况下,背景的似然概率。通过贝叶斯融合,最终得到了基于全局线索和背景先验的显著图S。
步骤6:对步骤5中检测到的显著目标区域以及事先采集的多个不同遥感目标的训练样本分别提取其颜色特征和纹理特征,并聚类形成识别字典;
(1)对于显著目标区域和训练样本,分别提取其区域颜色特征;
对于检测到的显著目标区域、训练样本的目标区域和背景区域,将第r个区域逐点展开形成矩阵TTlab(r),1≤r≤R,TT为矩阵名称,lab为色彩空间名称,r表示当前区域为显著目标区域和训练样本的目标区域及背景区域中的第r个区域,R为所有区域的个数,结果如下式所示:
其中P表示每个区域的大小,是区域中所有像素点的个数和,和分别表示第r个区域包含的LAB色彩空间中l通道、a通道和b通道第p个像素的颜色特征值,1≤p≤P。
将所述R个区域展开生成基于目标信息的集合TTlab:
TTlab=[TTlab(1),…TTlab(r),…TTlab(R)],r=(1,2,…,R)(19)
即
其中和分别是第r个区域包含的LAB色彩空间中l通道、a通道和b通道第p个像素的颜色特征值;对TTlab使用k-means聚类,选取KV个聚类中心,则可生成KV维的目标颜色字典DTarget,KV表示字典的维数,为选定的常数,D表示字典Dictionary;
由于各个区域的大小不同,因此采用特征袋模型提取各个区域的颜色特征。对每个区域统计其特征袋作为该区域的颜色特征表示:
首先对区域内各点进行矢量量化:对区域内任意一点p,1≤p≤P,获得与字典DTarget中最相似的原子di(di∈DTarget,表示字典中第i个原子),则将该点标记为i;
其次统计该区域的特征袋BoF(BagofFeatures)作为该区域的颜色特征:对区域内各点的矢量量化结果进行频数统计,将频数统计结果归一化作为该区域的特征袋。
(2)对于显著目标区域和训练样本,提取其区域纹理特征;
纹理特征采用Gabor特征描述子,采用Gabor滤波器对检测到的显著目标区域、训练样本的目标区域和背景区域进行滤波,获得所有区域中各个点不同时方向和尺度的梯度,对于第r个区域内点p,其梯度信息矩阵展开如下:
其中表示点p第o个方向,第s个尺度下的梯度大小。
统计任意区域r内所有点的均值和方差作为该区域的Gabor纹理特征,则有:
其中和是当前区域中的第o个方向,第s个尺度下的梯度均值和方差;
将第r个区域的纹理特征写为矩阵形式TTGabor(r),1≤r≤R,T为矩阵名称,Gabor为纹理特征名称,r表示当前区域为显著目标区域和训练样本的目标区域及背景区域中的第r个区域,R为所有区域的个数,纹理特征提取的结果如下式所示:
o=(1,2,…,O),s=(1,2,…,S)(23)
(3)聚类获得识别字典;
遥感目标的区域特征由训练样本集中目标区域和背景区域的颜色特征与纹理特征级联获得的,将所述所有训练样本的目标区域及背景区域的特征联合展开形成矩阵TTintegrated,并对TTintegrated进行K-means聚类,选取KS个聚类中心,则生成KS维的识别字典Drecognition。KS表示字典的维数,为选定的常数,D表示字典Dictionary。
步骤7:利用所述识别字典对显著目标区域和训练样本进行最大值约束的稀疏表示,分别得到显著目标区域、训练样本的目标区域和背景区域的最大值约束的稀疏表示系数;
原始稀疏编码模型的优化函数如下:
q=0,1,2or0<q<1(24)
其中λ为稀疏约束系数,‖·‖q表示q范数,y为输入样本特征向量,α为该样本的稀疏表示,D为稀疏字典,通常该字典具有过完备性,即字典中包含的原子个数远多于特征维数;
但此优化方程对于聚类获得的字典容易造成信息集中,即在某个点值过大,而其他点相对较小,能量全部集中于一个点;针对此问题,加入无穷范数约束项,通过约束稀疏表示的最大值来避免信息集中;优化函数如下所示:
其中λ1为稀疏约束系数,λ2为最大值约束系数;通过调节λ2即可调节稀疏表示的最大值,不仅能避免信息集中,同时由于该方法中每个样本的稀疏表示均由更多的非零项获得,使得该表示能够包含更多的近邻信息,具有更好的鲁棒性;
分别提取显著目标区域、训练样本的目标区域及背景区域的颜色特征与纹理特征级联作为该区域的特征输入,基于识别字典Drecognition获得显著目标区域、训练样本的目标区域及背景区域的最大值约束的稀疏表示
步骤8:利用所述训练样本的稀疏表示系数和已知的目标类别标签对SVM分类器进行训练,再对检测到的显著目标区域进行目标的类别识别,从而实现遥感图像中显著区域的类别信息判定;
利用训练样本的目标区域及背景区域的最大值约束稀疏表示及已知目标类别标签进行分类器训练,分类器采用SVM分类器,最后将显著目标区域的最大值约束稀疏表示输入分类器,最终获得显著目标区域的目标类别信息。
图2是本发明中全局显著图生成的各步骤示意图,图中列举出进行LAB变换、生成全局估计显著图、目标偏置的高斯平滑和生成全局显著图各步骤的示例图。本模型在LAB色彩空间提取三通道的颜色特征值来生成显著图,而经过目标偏置的高斯模型进行平滑后,可以更好的除去距离目标中心较远的干扰。
图3是本发明中全局显著图、背景显著图和最终显著图之间不同检测效果的区别示意图,从图中可以看出全局显著图和背景显著图在多种背景环境下的检测差别,当目标与全局整体差异较大并与背景相似时候,全局显著图相对于背景显著图可以更好的突出显著区域;而当目标与全局整体差异较小并与背景差异较大的时候,背景显著图相比于全局显著图可以更好的突出显著区域。将两者使用贝叶斯融合之后,则对于与全局或背景相似的目标检测效果较好。
图4是本发明对单目标、多目标以及油罐目标检测的效果图,从结果示例图中可以看出,本发明既能够从背景中得到清晰、准确的目标边缘,也能够完整地突出所有的目标显著区域。图4(a)是单目标检测的效果图,对于与背景相似或者全局相似的目标,基本可以被正确检测出来。图4(b)是对多目标检测的效果图,相对于单目标检测来说,能够全面而准确的检测出多个目标具有较大难度,因为多个目标可能处于不同形态,如具有不同的颜色特征、形状特征等,而本发明可以很好的将这些多目标从复杂的背景中检测出来。图4(c)是对油库中的油罐目标进行显著性检测的效果图,对于分布分散的油罐目标来说,本发明可以完整的将多个油罐目标从背景中提取出来,得到准确的显著性检测结果。
图5是本发明对检测到的显著目标区域进行目标类别识别的结果图,对不同类别的遥感目标能够进行分类识别与准确定位。本发明可对显著性检测结果进行分类识别。使得本发明不仅可以提取出遥感图像中的显著目标区域,对目标进行定位,同时可识别出该显著区域的目标类别信息。
Claims (10)
1.一种基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于包括如下步骤:
步骤1:将输入的所述遥感图像分为若干子块,提取全局子块的颜色特征,聚类形成全局字典,同时提取处于图像边界的子块的背景颜色特征,聚类形成背景字典;所述全局子块是指图像分成的所有子块;所述边界的子块是指处在图像四个边界的子块;边界总共包括N个子块;
步骤2:利用所述全局字典对输入的所述遥感图像的所有子块进行稀疏表示,得到全局稀疏表示系数,利用所述背景字典对输入的所述遥感图像的所有子块进行稀疏表示,得到背景稀疏表示系数;
步骤3:分别对所述全局稀疏表示系数和所述背景稀疏表示系数进行最大池化处理,将所述池化处理后的全局稀疏表示系数聚类生成全局显著图,将所述池化处理后的背景稀疏表示系数聚类生成背景显著图;
步骤4:采用目标偏置的高斯模型分别对所述全局显著图和所述背景显著图进行平滑去噪处理;
步骤5:对步骤4中平滑去噪处理后的所述全局显著图和所述背景显著图进行贝叶斯融合,得到最终的显著图即为图像显著性检测的最终结果,从而获得遥感图像中的显著目标区域:
步骤6:对步骤5检测到的显著目标区域以及事先采集的多个不同遥感目标的训练样本分别提取其颜色特征和纹理特征,并使用训练样本颜色与纹理的级联特征聚类形成目标识别字典;
步骤7:利用所述目标识别字典分别对显著目标区域和训练样本进行最大值约束的稀疏表示,得到显著目标区域和训练样本的最大值约束的稀疏表示系数;
步骤8:利用训练样本的稀疏表示系数进行分类器训练,再对步骤5检测到的显著目标区域进行目标类别识别,从而实现遥感图像中显著目标的检测与识别。
2.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:提取全局子块的颜色特征,聚类形成全局字典的步骤;具体包括:
对于输入的所述遥感图像,将其划分为T个子块,T为大于1的整数,采用LAB色彩空间的颜色特征来表示所述图像各子块,形成子块矩阵。对于全局集合来说,将第i个子块中颜色特征展开形成的矩阵定义为Glab(i),1≤i≤T,其中G为矩阵名称,lab为色彩空间名称,i为某个子块,T为子块的个数;
其中K表示每个子块的大小,是子块中所有像素点的个数和,是一个数值, 和分别表示第i个子块的LAB色彩空间中l通道、a通道和b通道的颜色特征值;将所述T个子块展开形成一个基于全局信息的集合Glab:
Glab=[Glab(1),…Glab(t),…Glab(T)],t=(1,2,…,T)(2)
即
其中和分别是第t个子块包含的LAB色彩空间中l通道、a通道和b通道第k(1≤k≤K)个像素的颜色特征值;对Glab使用k-means聚类,选取KD个聚类中心,则可生成KD维的全局字典DGlobal;KD表示字典的维数,通常为选定的常数,D表示字典Dictionary。
3.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:提取处于图像边界的子块的背景颜色特征,聚类形成背景字典的步骤;具体包括:
根据背景先验,获得边界包含的背景信息;
对于输入的所述遥感图像,提取四个边界的图像作为背景集合,所述四个边界共包括N个子块,其中N=2(W/Pwidth+H/Qheight)-4,其中W和H分别为输入图像的宽和高,Pwidth和Qheight分别为各子块的宽和高;
将第j个子块展开形成矩阵Blab(j),1≤j≤N,B为矩阵名称,lab为色彩空间名称,j为某个背景子块,N为背景子块的个数,结果如下式所示:
其中K表示每个子块的大小,是子块中所有像素点的个数和,和分别表示第j个子块包含的LAB色彩空间中l通道、a通道和b通道第k个像素的颜色特征值;其中1≤k≤K;
将所述N个子块展开生成基于背景信息的集合Blab:
Blab=[Blab(1),…Blab(n),…Blab(N)],n=(1,2,…,N)(5)
即
其中和分别是第n个子块包含的LAB色彩空间中l通道、a通道和b通道第k个像素的颜色特征值;对Blab使用k-means聚类,选取KD个聚类中心,则可生成KD维的背景字典DBackground,KD表示字典的维数,通常为选定的常数,D表示字典Dictionary。
4.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:利用所述全局字典对输入的所述遥感图像的所有子块进行稀疏表示,得到全局稀疏表示系数;利用所述背景字典对输入的所述遥感图像的所有子块进行稀疏表示,得到背景稀疏表示系数;具体包括:
(1)全局信息的稀疏表示
当得到聚类后的全局字典DGlobal,再通过稀疏表示公式对全局信息中的每个子块进行学习,得到稀疏表示系数αGlobal(i),稀疏表示公式为:
Glab(i)=DGlobalαGlobal(i)(7)
其中i表示第i个子块,αGlobal(i)表示第i个子块的稀疏表示系数;
在全局信息集合中,对所有子块学习得到的稀疏表示系数采用最小化的绝对收缩和选择算子LASSO进行优化,如下式所示:
subjectto||αGlobal(i)||1≤β,i=(1,2,…,T)
其中β是大于0的常数,通过学习得到所述T个子块的稀疏表示系数集合,定义为全局稀疏表示系数αGlobal;
(2)背景信息的稀疏表示
当得到聚类后的背景字典DBackground后,再利用稀疏表示公式对背景信息中的每个子块进行学习,得到稀疏表示系数αBackground(j),稀疏表示公式为:
Blab(j)=DBackgroundαBackground(j)(9)
其中j表示第j个子块,αBackground(j)表示第j个子块的稀疏表示系数;对背景信息集中所有子块学习到的稀疏表示系数采用最小化的绝对收缩和选择算子LASSO进行优化,如下式所示:
subjectto||αBackground(j)||1≤β,j=(1,2,…,N)
其中β是大于0的常数,通过学习得到N个子块的稀疏表示系数集合,定义为背景稀疏表示系数αBackground。
5.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:对所述全局稀疏表示系数和所述背景稀疏表示系数进行最大池化处理,将所述池化处理后的全局稀疏表示系数聚类生成全局显著图,将所述池化处理后的背景稀疏表示系数聚类生成背景显著图;具体包括:
对于学习得到的全局稀疏表示系数αGlobal和背景稀疏表示系数αBackground分别进行最大池化处理,得到池化处理后的全局稀疏表示系数和背景稀疏表示系数分别对其利用k-means各自聚为两类,聚类标签分别定义为目标类U和背景类Q;将得到的聚类标签值返回到各自图像中,得到全局估计显著图EMGlobal和背景估计显著图EMBackground:
当得到全局估计显著图EMGlobal和背景估计显著图EMBackground后,对两类标签进行确定;根据背景先验的原理,目标总是趋向于出现在图像的中间部分,而不会全部出现在图像的四个边界,也可能只占据一个或者两个边界;因此,在四个边界,目标出现的概率应该小于背景出现的概率,根据这一原理,对标签进行赋值,就得到二值图BM(i),如下式所示:
将子块聚成两类后,四个边界中同类个数较少的一类下标标记为目标类U,对应的二值图为BMU(i);个数较多的一类标记为背景类Q,对应的二值图为BMQ(i);其中,PObject为在边界上N个子块中出现次数较少的U类子块的概率,PBackground为在边界上N个子块中出现次数较多的Q类子块的概率;图像子块的所有稀疏表示系数表明了该子块的显著性程度,将子块中所有稀疏表示系数的均值定义为显著性程度的值,则将该值返回到相应图像子块的每个像素点中,得到初始显著图S(z);
其中表示第i个子块池化后的稀疏表示系数,z表示每个像素点,M为原图像包含的所有像素总数;mean表示平均函数;全局估计图EMGlobal和背景估计图EMBackground通过目标与背景的确认以及计算图像的显著性得分,最后分别得到全局显著图SGlobal(z)和背景显著图SBackground(z)。
6.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:采用目标偏置的高斯模型分别对所述全局显著图和所述背景显著图进行平滑去噪处理;具体包括:
采用目标偏置高斯模型对图像进行处理,计算出图像中潜在目标的中心位置,以目标中心为圆心,进行高斯平滑,高斯函数如下式所示:
其中σx,σy表示图像方差,(x,y)表示中心点的坐标,(xz,yz)为任意点z的坐标,当x=0,y=0时,表示原点处于图像的中心位置,采用目标偏置的高斯模型,利用图像子块的标签值来计算潜在目标的中心位置,则目标中心点的坐标(x,y)为:
其中,S(u)和S(v)为S(z)中第u个和第v个子块,T为子块总数,(xu,yu)为第u个子块中目标点的坐标;将上式代入高斯公式,即公式(13)中,得到了基于初始显著图子块标签的目标偏置的高斯模型,通过该目标偏置的高斯模型G(z)与初始显著图S(z)的卷积可以得到平滑后的显著图S,如下式所示:
S=G(z)*S(z)(15)
全局初始显著图SGlobal(z)和背景初始显著图SBackground(z)经过目标偏置的高斯模型平滑后得到全局显著图SGlobal和背景显著图SBackground。
7.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:采用目标偏置的高斯模型分别对所述全局显著图和所述背景显著图进行平滑去噪处理;具体包括:
对于得到的全局显著图SGlobal和背景显著图SBackground,采取贝叶斯公式进行融合;贝叶斯公式如下式所示:
p(F)为显著图中前景出现的概率,p(Smap|F)为前景在显著图中出现的先验概率,p(Smap|B)为背景在显著图中出现的先验概率;选取全局显著图SGlobal或背景显著图SBackground作为先验,然后利用另外一个计算似然概率,即将SGlobal作为先验,则SBackground用来计算似然概率,公式如下所示:
S=p(FGlobal|SBackground)+p(FBackground|SGlobal)(17)
其中,FGlobal和FBackground分别表示从显著图中分割出来的前景,通过贝叶斯融合,最终得到了基于全局先验和背景先验的显著图S,即为显著性检测的最终结果,从而获得遥感图像的显著目标区域。
8.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:对所述显著目标区域以及事先采集的多个不同遥感目标的训练样本分别提取其颜色特征和纹理特征,并聚类形成目标识别字典;具体包括:
(1)对于显著目标区域和训练样本,分别提取其区域颜色特征;
对于检测到的显著目标区域、训练样本的目标区域和背景区域,将第r个区域逐点展开形成矩阵TTlab(r),1≤r≤R,TT为矩阵名称,lab为色彩空间名称,r表示当前区域为显著目标区域和训练样本的目标区域及背景区域中的第r个区域,R为所有区域的个数,结果如下式所示:
其中P表示每个区域的大小,是区域中所有像素点的个数和,和分别表示第r个区域包含的LAB色彩空间中l通道、a通道和b通道第p个像素的颜色特征值,1≤p≤P;
将所述R个区域展开生成基于目标信息的集合TTlab:
TTlab=[TTlab(1),…TTlab(r),…TTlab(R)],r=(1,2,…,R)(19)
即
其中和分别是第r个区域包含的LAB色彩空间中l通道、a通道和b通道第p个像素的颜色特征值;对TTlab使用k-means聚类,选取KV个聚类中心,则可生成KV维的目标颜色字典DTarget,KV表示字典的维数,为选定的常数,D表示字典Dictionary;
由于各个区域的大小不同,因此采用特征袋模型提取各个区域的颜色特征;对每个区域统计其特征袋作为该区域的颜色特征表示:
首先对区域内各点进行矢量量化:对区域内任意一点p,1≤p≤P,获得与字典DTarget中最相似的原子di,则将该点标记为i;其中di∈DTarget,表示字典中第i个原子;
其次统计该区域的特征袋BoF(BagofFeatures)作为该区域的颜色特征:对区域内各点的矢量量化结果进行频数统计,将频数统计结果归一化作为该区域的特征袋;
(2)对于显著目标区域和训练样本,分别提取其区域纹理特征;
纹理特征采用Gabor特征描述子,采用Gabor滤波器对检测到的显著目标区域、训练样本的目标区域和背景区域进行滤波,获得各区域中每个点各个方向和尺度的梯度,对于第r个区域内点p,其梯度信息矩阵展开如下:
其中表示点p第o个方向,第s个尺度下的梯度大小;O为方向个数,S为尺度的个数;
统计任意区域r内所有点的均值和方差作为该区域的Gabor纹理特征,则有:
其中和是当前区域中的第o个方向,第s个尺度下的梯度均值和方差;
将第r个区域的纹理特征写为矩阵形式TTGabor(r),1≤r≤R,TT为矩阵名称,Gabor为纹理特征名称,r表示当前区域为显著目标区域和训练样本的目标区域及背景区域中的第r个区域,R为所有区域的个数,纹理特征提取的结果如下式所示:
(3)聚类获得目标识别字典;
遥感目标的区域特征由区域的颜色特征与纹理特征级联获得的,将所述所有训练样本的目标区域和背景区域的特征联合展开形成矩阵TTintegrated,并对TTintegrated进行K-means聚类,选取KS个聚类中心,则生成KS维的识别字典Drecognition;KS表示字典的维数,为选定的常数,D表示字典Dictionary。
9.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:利用所述识别字典对显著目标区域和训练样本进行最大值约束的稀疏表示,分别得到显著目标区域、训练样本的目标区域和背景区域的最大值约束的稀疏表示系数;
获得显著目标区域、训练样本的目标区域和背景区域的最大值约束稀疏表示:
原始稀疏编码模型的优化函数如下:
其中λ为稀疏约束系数,||·||q表示q范数,y为输入样本特征向量,α为该样本的稀疏表示,D为稀疏字典,通常该字典具有过完备性,即字典中包含的原子个数远多于特征维数;
但此优化方程对于聚类获得的字典容易造成信息集中,即在某个点值过大,而其他点相对较小,能量全部集中于一个点;针对此问题,加入无穷范数约束项,通过约束稀疏表示的最大值来避免信息集中;优化函数如下所示:
其中λ1为稀疏约束系数,λ2为最大值约束系数;通过调节λ2即可调节稀疏表示的最大值,不仅能避免信息集中,同时由于该方法中每个样本的稀疏表示均由更多的非零项获得,使得该表示能够包含更多的近邻信息,具有更好的鲁棒性;
分别提取显著目标区域、训练样本的目标区域及背景区域的颜色特征与纹理特征级联作为该区域的特征输入,基于识别字典Drecognition获得显著目标区域、训练样本的目标区域及背景区域的最大值约束的稀疏表示
10.如权利要求1所述的基于稀疏指引与显著驱动的遥感目标检测方法,其特征在于:利用训练样本的稀疏表示系数和已知的目标类别标签对SVM分类器进行训练,再对检测到的显著目标区域进行目标的类别识别,从而实现遥感图像中显著区域的类别信息判定;
利用训练样本的目标区域及背景区域的最大值约束稀疏表示及已知目标类别标签进行分类器训练,分类器采用SVM分类器,最后将显著目标区域的最大值约束稀疏表示输入分类器,最终获得显著目标区域的目标类别信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510717006.5A CN105389550B (zh) | 2015-10-29 | 2015-10-29 | 一种基于稀疏指引与显著驱动的遥感目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510717006.5A CN105389550B (zh) | 2015-10-29 | 2015-10-29 | 一种基于稀疏指引与显著驱动的遥感目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105389550A true CN105389550A (zh) | 2016-03-09 |
CN105389550B CN105389550B (zh) | 2018-07-17 |
Family
ID=55421822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510717006.5A Active CN105389550B (zh) | 2015-10-29 | 2015-10-29 | 一种基于稀疏指引与显著驱动的遥感目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105389550B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056592A (zh) * | 2016-05-26 | 2016-10-26 | 河海大学 | 一种基于稀疏表示的视觉显著性检测方法 |
CN106202352A (zh) * | 2016-07-05 | 2016-12-07 | 华南理工大学 | 基于贝叶斯网络的室内家居风格与颜色搭配设计的方法 |
CN106842112A (zh) * | 2016-12-30 | 2017-06-13 | 西北工业大学 | 强混响环境下基于参数化贝叶斯字典学习的声源定位方法 |
CN107392115A (zh) * | 2017-06-30 | 2017-11-24 | 中原智慧城市设计研究院有限公司 | 一种基于分层特征提取的交通标志识别方法 |
CN108230240A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108280469A (zh) * | 2018-01-16 | 2018-07-13 | 佛山市顺德区中山大学研究院 | 一种基于稀疏表示的超市商品图像识别方法 |
CN108765406A (zh) * | 2018-05-31 | 2018-11-06 | 电子科技大学 | 一种基于红外遥感图像的雪山检测方法 |
CN109410165A (zh) * | 2018-11-14 | 2019-03-01 | 太原理工大学 | 一种基于分类学习的多光谱遥感图像融合方法 |
CN109858577A (zh) * | 2019-04-01 | 2019-06-07 | 盐城工学院 | 大豆外观品质检测装置以及检测方法 |
CN110222641A (zh) * | 2019-06-06 | 2019-09-10 | 北京百度网讯科技有限公司 | 用于识别图像的方法和装置 |
CN111126482A (zh) * | 2019-12-23 | 2020-05-08 | 自然资源部国土卫星遥感应用中心 | 一种基于多分类器级联模型的遥感影像自动分类方法 |
CN111191650A (zh) * | 2019-12-30 | 2020-05-22 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN112507805A (zh) * | 2020-11-18 | 2021-03-16 | 深圳市银星智能科技股份有限公司 | 一种场景识别方法及设备 |
CN113011438A (zh) * | 2021-03-16 | 2021-06-22 | 东北大学 | 基于节点分类和稀疏图学习的双模态图像显著性检测方法 |
CN115393737A (zh) * | 2022-10-27 | 2022-11-25 | 南通有来信息技术有限公司 | 一种遥感对象确定方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240256A (zh) * | 2014-09-25 | 2014-12-24 | 西安电子科技大学 | 一种基于层次化稀疏建模的图像显著性检测方法 |
CN104392463A (zh) * | 2014-12-16 | 2015-03-04 | 西安电子科技大学 | 一种基于联合稀疏多尺度融合的图像显著区域检测方法 |
CN104680545A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 光学图像中存在显著目标的检测方法 |
-
2015
- 2015-10-29 CN CN201510717006.5A patent/CN105389550B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240256A (zh) * | 2014-09-25 | 2014-12-24 | 西安电子科技大学 | 一种基于层次化稀疏建模的图像显著性检测方法 |
CN104392463A (zh) * | 2014-12-16 | 2015-03-04 | 西安电子科技大学 | 一种基于联合稀疏多尺度融合的图像显著区域检测方法 |
CN104680545A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 光学图像中存在显著目标的检测方法 |
Non-Patent Citations (4)
Title |
---|
DANPEI ZHAO等: "Sparsity-guided saliency detection for remote sensing images", 《JOURNAL OF APPLIED REMOTE SENSING》 * |
MING LU等: "Local and Non-local Graph Regularized Sparse Coding for Face Recognition", 《PROCEEDING ICIG "13 PROCEEDINGS OF THE 2013 SEVENTH INTERNATIONAL CONFERENCE ON IMAGE AND GRAPHICS》 * |
赵丹培等: "基于显著语义模型的机场与油库目标的识别方法", 《计算机辅助设计与图形学学报》 * |
高仕博等: "面向目标检测的稀疏表示方法研究进展", 《电子学报》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056592B (zh) * | 2016-05-26 | 2018-10-23 | 河海大学 | 一种基于稀疏表示的视觉显著性检测方法 |
CN106056592A (zh) * | 2016-05-26 | 2016-10-26 | 河海大学 | 一种基于稀疏表示的视觉显著性检测方法 |
CN106202352B (zh) * | 2016-07-05 | 2019-11-15 | 华南理工大学 | 基于贝叶斯网络的室内家居风格与颜色搭配设计的方法 |
CN106202352A (zh) * | 2016-07-05 | 2016-12-07 | 华南理工大学 | 基于贝叶斯网络的室内家居风格与颜色搭配设计的方法 |
CN106842112A (zh) * | 2016-12-30 | 2017-06-13 | 西北工业大学 | 强混响环境下基于参数化贝叶斯字典学习的声源定位方法 |
CN106842112B (zh) * | 2016-12-30 | 2019-04-19 | 西北工业大学 | 强混响环境下基于参数化贝叶斯字典学习的声源定位方法 |
CN107392115A (zh) * | 2017-06-30 | 2017-11-24 | 中原智慧城市设计研究院有限公司 | 一种基于分层特征提取的交通标志识别方法 |
CN108230240A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108230240B (zh) * | 2017-12-31 | 2020-07-31 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108280469A (zh) * | 2018-01-16 | 2018-07-13 | 佛山市顺德区中山大学研究院 | 一种基于稀疏表示的超市商品图像识别方法 |
CN108765406A (zh) * | 2018-05-31 | 2018-11-06 | 电子科技大学 | 一种基于红外遥感图像的雪山检测方法 |
CN109410165A (zh) * | 2018-11-14 | 2019-03-01 | 太原理工大学 | 一种基于分类学习的多光谱遥感图像融合方法 |
CN109410165B (zh) * | 2018-11-14 | 2022-02-11 | 太原理工大学 | 一种基于分类学习的多光谱遥感图像融合方法 |
CN109858577A (zh) * | 2019-04-01 | 2019-06-07 | 盐城工学院 | 大豆外观品质检测装置以及检测方法 |
CN111914850B (zh) * | 2019-05-07 | 2023-09-19 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN110222641A (zh) * | 2019-06-06 | 2019-09-10 | 北京百度网讯科技有限公司 | 用于识别图像的方法和装置 |
CN110222641B (zh) * | 2019-06-06 | 2022-04-19 | 北京百度网讯科技有限公司 | 用于识别图像的方法和装置 |
CN111126482B (zh) * | 2019-12-23 | 2020-11-13 | 自然资源部国土卫星遥感应用中心 | 一种基于多分类器级联模型的遥感影像自动分类方法 |
CN111126482A (zh) * | 2019-12-23 | 2020-05-08 | 自然资源部国土卫星遥感应用中心 | 一种基于多分类器级联模型的遥感影像自动分类方法 |
CN111191650B (zh) * | 2019-12-30 | 2023-07-21 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN111191650A (zh) * | 2019-12-30 | 2020-05-22 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN112507805A (zh) * | 2020-11-18 | 2021-03-16 | 深圳市银星智能科技股份有限公司 | 一种场景识别方法及设备 |
CN113011438A (zh) * | 2021-03-16 | 2021-06-22 | 东北大学 | 基于节点分类和稀疏图学习的双模态图像显著性检测方法 |
CN113011438B (zh) * | 2021-03-16 | 2023-09-05 | 东北大学 | 基于节点分类和稀疏图学习的双模态图像显著性检测方法 |
CN115393737A (zh) * | 2022-10-27 | 2022-11-25 | 南通有来信息技术有限公司 | 一种遥感对象确定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105389550B (zh) | 2018-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105389550A (zh) | 一种基于稀疏指引与显著驱动的遥感目标检测方法 | |
CN103310195B (zh) | 车辆高分遥感图像的基于llc特征的弱监督识别方法 | |
CN101350069B (zh) | 从训练数据构建分类器并使用分类器检测在测试数据中的移动对象的计算机实现方法 | |
CN101551863B (zh) | 基于非下采样轮廓波变换的遥感图像道路提取方法 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN101520894B (zh) | 基于区域显著性的显著对象提取方法 | |
Lian et al. | DeepWindow: Sliding window based on deep learning for road extraction from remote sensing images | |
CN102968626B (zh) | 一种人脸图像匹配的方法 | |
CN109902590A (zh) | 深度多视图特征距离学习的行人重识别方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN105574063A (zh) | 基于视觉显著性的图像检索方法 | |
CN105184265A (zh) | 一种基于自学习的手写表格数字字符串快速识别的方法 | |
CN104598885A (zh) | 街景图像中的文字标牌检测与定位方法 | |
CN105205501A (zh) | 一种多分类器联合的弱标注图像对象检测方法 | |
CN105654139A (zh) | 一种采用时间动态表观模型的实时在线多目标跟踪方法 | |
CN103295032B (zh) | 基于空间Fisher向量的图像分类方法 | |
CN104463248A (zh) | 基于深度玻尔兹曼机提取高层特征的高分辨率遥感图像飞机检测方法 | |
CN113223042B (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN103366365A (zh) | 基于人工免疫多目标聚类的sar图像变化检测方法 | |
CN113505670B (zh) | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 | |
CN106846322A (zh) | 基于曲线波滤波器和卷积结构学习的sar图像分割方法 | |
CN104298999A (zh) | 基于递归自动编码的高光谱特征学习方法 | |
CN106650798A (zh) | 一种结合深度学习与稀疏表示的室内场景识别方法 | |
CN106056627A (zh) | 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |