CN109614872A - 一种基于改进的bl模型建成区提取方法 - Google Patents
一种基于改进的bl模型建成区提取方法 Download PDFInfo
- Publication number
- CN109614872A CN109614872A CN201811348631.7A CN201811348631A CN109614872A CN 109614872 A CN109614872 A CN 109614872A CN 201811348631 A CN201811348631 A CN 201811348631A CN 109614872 A CN109614872 A CN 109614872A
- Authority
- CN
- China
- Prior art keywords
- saliency maps
- weak
- notable
- areas
- built
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 239000002245 particle Substances 0.000 claims abstract description 8
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 238000005728 strengthening Methods 0.000 claims abstract 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000012952 Resampling Methods 0.000 claims description 5
- 230000001413 cellular effect Effects 0.000 claims 1
- 238000002203 pretreatment Methods 0.000 claims 1
- 235000015170 shellfish Nutrition 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于改进的BL模型建成区提取方法,包括如下步骤:对图像进行预处理;基于多线索融合和测地加权贝叶斯模型构建弱显著图,并基于弱显著性图选取强化分类模型的训练样本;训练得到强显著性图,并基于加权方法整合弱显著性图和强显著性图;使用分数阶达尔文粒子群优化算法分割最终的显著图,以准确捕捉建成区的信息。本发明可以准确的从遥感图像中提取建成区。
Description
技术领域
本发明涉及建成区自动提取技术,特别涉及一种基于改进的BL模型建成区提取方法。
背景技术
人口密度和资源利用强度在已建成的城市地区往往很高。快速城市化带来了一些问题,包括城市热岛效应、空气污染和不合理的土地使用。因此,建成区是众多领域中的一个重要话题,包括可持续性、遥感和社会科学等领域。为了有效地向各种研究学科分发有关建成区的信息,遥感技术被广泛用于提取和监测建成区。
在过去的几十年里,人们提出了几种提取城市建成区的方法。这些方法可以大致分为四类:基于分类的方法、基于索引的方法、基于纹理的方法和基于多传感器的方法。基于分类的方法主要考虑如何使用合适的分类器提取建成区。然而,这些方法在大区域及全球范围内应用时充满挑战。基于索引的方法是基于光谱波段设计的,在光谱波段内,累积区域在多光谱数据集中表现出最高和最低的反射率值。通常,这些方法无法解决区分城市和其他土地覆盖类型的困难。基于纹理的方法可以基于高纹理粒度和纹理特征提取建成区,这些特征将它们从背景中抵消,但当遇到具有与建筑区域相似纹理特征的地面物体时,这种方法特别容易出错。基于多传感器的方法结合了多传感器的各种特性来提取建成区。然而,由于合成不同数据类型困难,这种方法没有被广泛应用。
显著性检测为地物提取提供了一个独特的视角,因为它只选择与要处理的当前行为或任务相关的信息,忽略了不相关的信息。近年来,显著性检测模型逐渐被引入遥感领域,以检测高分辨率图像中感兴趣的特定物体或区域,包括船、住宅区、水和楼房。Sentinel-2卫星提供13个波段,其更丰富的光谱信息确保了对建成区的深度探测和提取。由于建成区的独特光谱特征,它可能会成Sentinel-2的一些波段组合中的突出地物,因此建成区可以很容易地通过显著性检测模型来识别。显著性方法主要可分为自下而上刺激驱动方法和自上而下任务驱动方法。目前已经提出了许多自下而上的显著性检测方法,这些方法可以大致分为四类:基于对比、图论和信息论、先验知识和低秩矩阵恢复理论的方法。
与自下而上的方法相比,迄今为止关于自上而下的显著性模型的研究很少。JiangHuaizu(2013)提出了一种基于学习的方法,作为回归问题,该模型是基于将从训练样本中提取的大量描述符与基本真实标签相结合而构建的。Zhang Lingyun(2008)开发了一种基于贝叶斯模型的自上而下的方法,该方法通过结合自上而下和自下而上的信息来计算局部显著性。Yang Jimei(2017)提出了一种结合条件随机场和稀疏编码理论的方法。Cholakkal(2015)将自上而下的显著性检测视为图像分类问题,并提出了一种基于图像分类框架的显著性检测方法。
由于每一个类别都有不同的优势,Na Tong(2015)提出了一种BL(bootstraplearning)学习方法来提高性能;它利用了基于自下而上对比的显著性模型和自上而下学习方法的优势。然而,BL对从遥感图像中提取建成区的方法的适应性需要进一步研究。首先,BL在粗略显著性检测模型中引入暗通道先验来生成粗略显著性图,但是这种先验并不适用于所有图像。在背景较暗或前景较亮的图像中,它可能会产生相反的效果。尽管前人使用自适应权重来减弱暗通道先验的反效果,但是遥感图像非常复杂,特别是在水体作为暗背景出现的情况下;在这种情况下,BL算法可能会失败。第二,BL没有考虑遥感图像中地面物体的空间信息,这可能会导致大量背景信息的检测。此外,它简单地叠加多尺度显著图,而没有完全整合它们提供的信息。
在这种背景下,提出了一种基于改进的boosting learning模型建成区提取方法,用于从遥感图像中提取建成区。
发明内容
本发明的目的是,针对现有技术中存在的问题,提出一种改进的建成区提取方法,用于稳健准确的从遥感图像中提取建成区。
为了实现上述目的,本发明构建了一种基于改进的boosting learning模型建成区提取方法。具体包括如下步骤:
步骤1)对图像进行预处理;
步骤2)基于多线索融合和GWB模型构建弱显著图,并基于弱显著性图选取强化分类模型的训练样本;
步骤3)训练得到强显著性图,并基于加权方法整合弱显著性图和强显著性图;
步骤4)使用分数阶达尔文粒子群优化算法分割最终的显著图,以准确捕捉建成区的信息。
进一步,所述步骤1)具体方法为基于最临近方法将图像进行重采样到10米;基于最佳指数因子方法获取最佳波段组合生成假彩色图像;利用简单线性迭代聚类(SLIC)超像素分割方法将假彩色图像分割成均匀和紧凑的区域,然后将相似的超像素合并成不同的分割对象。
进一步,所述步骤2)具体方法首先利用分割对象的紧凑性,颜色,纹理等线索获取弱显著性图;然后引入空间权重贝叶斯模型去掉弱显著性图的背景信息;并将弱显著性图中水体去除。最后基于去除水体后的弱显著图生成Boosting模型的训练样本;
进一步,所述步骤3)具体方法为首先基于Boosting模型获取强显著性图,然后利用CCA整合不同尺度的强显著性图,最后将弱显著性图和强显著性图进行加权得到最终的显著性图。
进一步,所述步骤4)具体方法为分数阶达尔文粒子群优化算法找到分割图像的最佳阈值,利用该阈值对图像进行分割得到建成区信息图。
本发明可以准确的从遥感图像中提取建成区。
附图说明
图1为一种基于改进的BL模型建成区提取方法流程示意图;
图2为建成区提取示例流程图。
具体实施方式
下面结合附图对本发明作进一步阐述说明,但不用来限制本发明的范围。
图1为一种基于改进的BL模型建成区提取方法流程示意图。如图1所示,该方法包括步骤S101-S104:
步骤S101,对图像进行预处理;
具体地,基于最临近方法将图像进行重采样到10米;基于最佳指数因子方法获取最佳波段组合生成假彩色图像;利用简单线性迭代聚类(SLIC)超像素分割方法将假彩色图像分割成均匀和紧凑的区域,然后将相似的超像素合并成不同的分割对象。
步骤S102,基于多线索融合和GWB模型构建弱显著图,并基于弱显著性图选取强化分类模型的训练样本;
具体地,首先利用分割对象的紧凑性,颜色,纹理等线索获取弱显著性图;然后引入空间权重贝叶斯模型去掉弱显著性图的背景信息;并将弱显著性图中水体去除。最后基于去除水体后的弱显著图生成Boosting模型的训练样本;
步骤S103,训练得到强显著性图,并基于加权方法整合弱显著性图和强显著性图;
具体地,首先基于Boosting模型获取强显著性图,然后利用CCA整合不同尺度的强显著性图,最后将弱显著性图和强显著性图进行加权得到最终的显著性图。
步骤S104,使用分数阶达尔文粒子群优化算法分割最终的显著图,以准确捕捉建成区的信息。
具体地,使用分数阶达尔文粒子群优化算法找到分割图像的最佳阈值,利用该阈值对图像进行分割得到建成区信息图。
在一个具体的操作实施例中,本发明实施例建成区提取步骤包括(如图2所示):
(一)图像预处理
1)图像重采样
Sentinel-2卫星的空间分辨率为10、20和60米。为了匹配20和60米至10米的各种空间分辨率,将20和60米的图像重采样到10米。
2)最佳波段选择
Sentinel-2两个SWIR波段都被选择来组合假彩色图像进行组合提取。为了选择假彩色图像的第三波段,采用了最佳指数因子(OIF)。选取最大的最佳指数因子作为最佳波段组合。
(二)多尺度分割
使用简单线性迭代聚类(SLIC)超像素分割方法将假彩色图像分割成均匀和紧凑的超像素区域;超像素的数量被设定为20000,然后将超像素合并到不同数量的分割对象。
(三)特征提取
从三个方面(光谱、纹理和形状)来描述每个分割对象并进行特征提取。首先计算RGB空间和CIELab空间中计算每个对象像素的平均值;利用局部二进制模式(LBPs)来计算分割对象的纹理特征;使用偏心率和面积计算形状特征。
(四)构建弱显著图
1)多线索融合
a)构建基于紧密度的显著图
基于分割图构建图G=(V,E),其中V表示节点集,E表示相邻节点之间的链接集。并且节点vi和vj之间的CIELab颜色空间距离lij被定义为:
lij=||ci-cj||
其中ci和cj是与CIELab颜色空间中的节点vi和vj相对应的分割对象的平均值。请注意,距离矩阵L=[lij]N×N被归一化为区间[0,1]。亲和矩阵w被定义为:
其中σ是常数,Ωi表示节点VI的邻居集。
显著对象通常具有紧凑的空间分布,而背景区域广泛分布在整个图像中。因此,紧凑性可以通过计算分割对象的空间方差来确定,以计算紧凑性显著图。首先,一对超像素vi和vj之间的相似性aij被定义为:
基于通过构建图流形排序的相似性如下:
HT=(D-α·W)-1A
其中A=[aij]N×N,,H=[hij]N×N是扩散过程后的相似矩阵,α=0.99。分割对象的空间方差计算如下:
其中nj表示属于分割对象vj的像素数量,bj表示分割对象vj的质心,μi表示空间平均值。
考虑到图像中心的物体更引人注目,分割的物体和图像中心之间的空间距离计算如下:
其中p=[px,py]是图像中心的空间坐标。
基于紧密度的显著图被定义为:
Scom(i)=1-Norm(sv(i)+sd(i))
其中范数(x)是将x归一化为[0,1]的函数。
b)构建基于前景性的显著图
首先,通过分割紧凑显著图来确定前景种子集。然后使用多个线索计算每个分割对象与种子的对比度,包括纹理和位置信息。前景显著性计算如下:
其中ωs是前景种子集,Dt是基于LBP的分割对象之间的纹理相似性,||bi–bj||是分割对象位置之间的欧氏距离。
最后,使用流形排序SFG图,然后将地图归一化为[0,1],并表示为Sfore(i)。Scom(i)和Sfore(i)图彼此互补,并且两个显著图被集成以定义初始显著图,具体如下:
Sic(i)=η·Scom(i)+(1-η)·Sfore(i)
2)引入测地加权贝叶斯模型
引入GWB模型来优化初始显著图。用于估计显著图的贝叶斯推断被计算为:
p(bk)=1-p(sal)
其中p(sal)是像素v处显著的先验概率,p(bk)是属于背景的像素的先验概率,p(v|sal)和p(v|bk)是观察的可能性,v是给定像素的特征向量。当考虑空间关系时,p(v|sal)和p(v|bk)被改写为
给定像素x,特征向量由它的CIELab颜色和LBP纹理特征表示,并且给定像素x在分割对象Oi中的观察似然度计算如下:
其中nj表示分割对象Oi内的像素数量,nj(f(x))表示包含在分割对象Oi中的f(x)值的数量,并且f∈{L,a,b,LBP}表示特征向量v的分量,利用初始显著图作为先验分布来生成更精确的显著图。然后,基于图切割方法进一步细化改进的显著图以获得粗略的显著图搜索。
3)清除水体
首先计算低于给定阈值的近红外波段中每个分割对象的平均值,随后将弱显著图上的分割对象设置为零。
4)选择培训样本
计算每个分割对象的平均显著值,并设置两个阈值来生成初始正负训练样本。显著值高于高阈值的分割对象被选择为初始正样本,而显著值低于低阈值的分割对象被选择为初始负样本。接下来,使用空间特征Fspatial约束初始训练样本集,以获得训练样本{si,li}P i=1,,其中si是粗略显著图搜索的第i个训练样本,li是训练样本的二进制标签,P是样本数量,阳性样本标记为+1,阴性样本标记为–1。
(五)构建强显著图
采用多核增强方法,选择不同核的支持向量机作为弱分类器,然后基于boosting方法学习强分类器。随后,使用强分类器生成像素显著图。最后,基于图切割方法和引导滤波器改进强显著图。
(六)确定分割对象的数量
采用了多尺度策略确定分割对象的数量。生成M=7层不同粒度的分割对象,其中N=1000、1500、2000、2500、3000、3500和4000。为了有效地整合多尺度M的结果,采用CCA方法。
(七)组合弱显著图和强显著图
弱显著图在检测细节和捕捉局部结构信息方面有几个优势,而强显著图更擅长描述全局形状。为了使两个显著图的互补性最大化,使用加权组合来整合它们,具体如下:
Sfinal=κ·Scourse+(1-κ)·Srefine
其中κ是组合的平衡因子。在建筑物区域的提取中,κ被设置为0.2。
(八)城市建成区提取
在最终显著图中,最终建成区通常具有最高值,类似于建成区的地物具有次高值,其他地物具有非常低的值。同样,最终的显著图也可以被广泛分割成三个部分。为了自适应地选择不同的分割阈值,采用FODPSO方法进行提取。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于改进的BL模型建成区提取方法,其特征在于,包括如下步骤:
对图像进行预处理;
基于多线索融合和测地加权贝叶斯模型构建弱显著图,并基于弱显著性图选取强化分类模型的训练样本;
训练得到强显著性图,并基于加权方法整合弱显著性图和强显著性图;
使用分数阶达尔文粒子群优化算法分割最终的显著图,以准确捕捉建成区的信息。
2.如权利要求1所述的方法,其特征在于,所述对图像进行预处理步骤,具体为:
基于最临近方法将图像进行重采样到10米;基于最佳指数因子方法获取最佳波段组合生成假彩色图像;利用简单线性迭代聚类超像素分割方法将假彩色图像分割成均匀和紧凑的区域,然后将相似的超像素合并成不同的分割对象。
3.如权利要求1所述的方法,其特征在于,所述基于多线索融合和测地加权贝叶斯模型构建弱显著图,并基于弱显著性图选取强化分类模型的训练样本;步骤,具体为:
首先利用分割对象的紧凑性,颜色,纹理等线索获取弱显著性图;然后引入空间权重贝叶斯模型去掉弱显著性图的背景信息;并将弱显著性图中水体去除。最后基于去除水体后的弱显著图生成Boosting模型的训练样本。
4.如权利要求1所述的方法,其特征在于,所述训练得到强显著性图,并基于加权方法整合弱显著性图和强显著性图步骤,具体为:
首先基于Boosting模型获取强显著性图,然后利用长方体元胞自动机整合不同尺度的强显著性图,最后将弱显著性图和强显著性图进行加权得到最终的显著性图。
5.如权利要求1所述的方法,其特征在于,所述使用分数阶达尔文粒子群优化算法分割最终的显著图,以准确捕捉建成区的信息步骤,具体法为:
分数阶达尔文粒子群优化算法找到分割图像的最佳阈值,利用该阈值对图像进行分割得到建成区信息图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811348631.7A CN109614872A (zh) | 2018-11-13 | 2018-11-13 | 一种基于改进的bl模型建成区提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811348631.7A CN109614872A (zh) | 2018-11-13 | 2018-11-13 | 一种基于改进的bl模型建成区提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109614872A true CN109614872A (zh) | 2019-04-12 |
Family
ID=66003327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811348631.7A Pending CN109614872A (zh) | 2018-11-13 | 2018-11-13 | 一种基于改进的bl模型建成区提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109614872A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105869173A (zh) * | 2016-04-19 | 2016-08-17 | 天津大学 | 一种立体视觉显著性检测方法 |
CN106960434A (zh) * | 2017-03-03 | 2017-07-18 | 大连理工大学 | 一种基于被包围状态和贝叶斯模型的图像显著性检测方法 |
CN107103326A (zh) * | 2017-04-26 | 2017-08-29 | 苏州大学 | 基于超像素聚类的协同显著性检测方法 |
CN107742295A (zh) * | 2016-12-14 | 2018-02-27 | 中国科学院沈阳自动化研究所 | 一种基于视觉的立方星对接重构方法 |
CN107967492A (zh) * | 2017-12-18 | 2018-04-27 | 西北工业大学 | 一种结合似物性检测的贝叶斯显著性检测方法 |
-
2018
- 2018-11-13 CN CN201811348631.7A patent/CN109614872A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105869173A (zh) * | 2016-04-19 | 2016-08-17 | 天津大学 | 一种立体视觉显著性检测方法 |
CN107742295A (zh) * | 2016-12-14 | 2018-02-27 | 中国科学院沈阳自动化研究所 | 一种基于视觉的立方星对接重构方法 |
CN106960434A (zh) * | 2017-03-03 | 2017-07-18 | 大连理工大学 | 一种基于被包围状态和贝叶斯模型的图像显著性检测方法 |
CN107103326A (zh) * | 2017-04-26 | 2017-08-29 | 苏州大学 | 基于超像素聚类的协同显著性检测方法 |
CN107967492A (zh) * | 2017-12-18 | 2018-04-27 | 西北工业大学 | 一种结合似物性检测的贝叶斯显著性检测方法 |
Non-Patent Citations (3)
Title |
---|
余胜威等: "基于分数阶达尔文粒子群FODPSO算法的图像分割", 《计算机工程与科学》 * |
佟娜: "基于引导学习和局部约束线性编码的显著性检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
祁伟: "基于仿生视觉计算模型的红外图像理解", 《中国博士学位论文全文数据库 信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9679226B1 (en) | Hierarchical conditional random field model for labeling and segmenting images | |
Ok et al. | Evaluation of random forest method for agricultural crop classification | |
Gong et al. | SAR change detection based on intensity and texture changes | |
Yin et al. | Hot region selection based on selective search and modified fuzzy C-means in remote sensing images | |
CN107330875B (zh) | 基于遥感图像正反向异质性的水体周边环境变化检测方法 | |
CN106649487A (zh) | 基于兴趣目标的图像检索方法 | |
CN105528575B (zh) | 基于上下文推理的天空检测方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN111080678B (zh) | 一种基于深度学习的多时相sar图像变化检测方法 | |
Asokan et al. | Machine learning based image processing techniques for satellite image analysis-a survey | |
CN112733614B (zh) | 一种带有相似尺寸强化识别的害虫图像检测方法 | |
Zhu et al. | Diverse sample generation with multi-branch conditional generative adversarial network for remote sensing objects detection | |
Yang et al. | Tree detection from aerial imagery | |
Han et al. | The edge-preservation multi-classifier relearning framework for the classification of high-resolution remotely sensed imagery | |
CN114155371A (zh) | 基于通道注意力与金字塔卷积融合的语义分割方法 | |
CN113870157A (zh) | 一种基于CycleGAN的SAR图像合成方法 | |
Robb et al. | A semi-automated method for mapping glacial geomorphology tested at Breiðamerkurjökull, Iceland | |
CN110334628B (zh) | 一种基于结构化随机森林的室外单目图像深度估计方法 | |
Wang et al. | Double U-Net (W-Net): A change detection network with two heads for remote sensing imagery | |
Sutha | Object based classification of high resolution remote sensing image using HRSVM-CNN classifier | |
Xu et al. | Extended non-local feature for visual saliency detection in low contrast images | |
CN107392926B (zh) | 基于前期土地专题图的遥感影像特征选择方法 | |
Hajimoradlou et al. | Predicting landslides using locally aligned convolutional neural networks | |
CN112330562B (zh) | 一种异构遥感图像变换方法及系统 | |
CN104008374B (zh) | 一种矿井图像中基于条件随机场的矿工检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190412 |