CN107784657A - 一种基于颜色空间分类的无人机遥感图像分割方法 - Google Patents

一种基于颜色空间分类的无人机遥感图像分割方法 Download PDF

Info

Publication number
CN107784657A
CN107784657A CN201710909619.8A CN201710909619A CN107784657A CN 107784657 A CN107784657 A CN 107784657A CN 201710909619 A CN201710909619 A CN 201710909619A CN 107784657 A CN107784657 A CN 107784657A
Authority
CN
China
Prior art keywords
pixel
mrow
msub
cluster centre
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710909619.8A
Other languages
English (en)
Inventor
成凯华
白霖抒
韩姣姣
马泳潮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Yinnuo Aviation Technology Co Ltd
Original Assignee
Xi'an Yinnuo Aviation Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Yinnuo Aviation Technology Co Ltd filed Critical Xi'an Yinnuo Aviation Technology Co Ltd
Priority to CN201710909619.8A priority Critical patent/CN107784657A/zh
Publication of CN107784657A publication Critical patent/CN107784657A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

本发明公开了一种基于颜色空间分类的无人机遥感图像分割方法,通过把高分辨率无人机遥感图像分割成一系列像素簇,再利用颜色空间坐标和纹理特征的相似性对像素点分类,最后结合分类的结果引导像素簇之间的融合,保证最后的每个分区基本属于同质区域,解决了现有技术中存在的分类精度低,椒盐噪声大以及算法效率低的问题,达到快速准确分割高分辨率无人机遥感图像的目的。

Description

一种基于颜色空间分类的无人机遥感图像分割方法
技术领域
本发明属于无人机应用技术领域,尤其涉及一种基于颜色空间分类的无人机遥感图像分割方法。
背景技术
目前,通过遥感影像获取地面专题信息已成空间信息学科及相关行业部门研究和应用的热点。以往遥感影像的获取主要通过遥感卫星和航拍图像,大部分遥感影像的分辨率较低,并且获取的成本高,数据量有限。而无人机的引入和高清摄像头的产生使高清遥感图像的获取更加方便,也就带来了对高清遥感影像信息提取的巨大需求。
对于无人机遥感的应用而言,影像信息提取的基础和关键是影像分类,即对同一类地物所对应的影像目标(像素点)进行划分。对于传统的中低分辨率遥感影像的信息提取而言,主要使用基于像素的地物分类方法(A.M.Dean,G.M.Smith.An evaluation of per-parcel land cover mapping using maximum likelihood class probabilities[J].International Journal of Remote Sensing,2003,24(14):2905-2920.)。但将这种传统的分类方法应用在高分辨率无人机遥感图像上,存在分类精度降低,空间数据冗余等问题,并且分类结果往往包含严重的椒盐噪声,不利于后续的信息提取和空间分析。
针对基于像素的地物分类方法应用于高分辨率遥感影像的不足,基于对象的分类与信息提取技术开始得到广泛应用。其中,对象的提取是基于对象的分类和信息提取技术的基础,对象的提取主要采用遥感影像的分割方法进行实现。
在高分辨率遥感影像分割算法方面,多数可见文献都采用了多尺度分割算法(Baatz M,A.An optimization approach for high quality multi-scale imagesegmentation[C]. AGIT-Symposium.2000:12-23、Happ P N,Ferreira RS,Bentes C,et al.Multiresolution segmentation:a parallel approach for highresolution image segmentation in multicore architectures[C].InternationalConference on Geographic Object-Based Image Analysis.2010.),但是多尺度影像分割过程,需要建立不同的尺度多次分割,由于遥感影像数据量大,算法复杂度高,所以执行算法需要耗用大量资源,效率低下,不适应于有实时处理需求的无人机影像信息提取过程。
基于以上,针对高分辨率无人机遥感图像,需要有更高效的分割方法来达到快速准确的提取对象的目的,提高分类精度,降低分类结果的椒盐效应。
发明内容
本发明的目的在于提供一种基于颜色空间分类的无人机遥感图像分割方法,解决了现有技术中对高分辨率无人机遥感图像的分类精度低,椒盐噪声大以及算法效率低的问题,本发明可以快速准确分割高分辨率无人机遥感图像。
为达到上述目的,本发明采用如下技术方案:
本发明提供了一种基于颜色空间分类的无人机遥感图像分割方法,包括以下步骤:
步骤(1):通过图像像素点之间的颜色距离和空间距离来判断像素点的相似性,将设定范围内相似的像素点聚合在一起并标记相同的聚类中心编号,将图像分割成若干个像素簇;
步骤(2):对像素簇的面积进行连通分量调整,将面积小于设定阈值的像素簇合并到周围的像素簇中,并使合并后的像素簇中的像素点使用相同的聚类中心编号;
步骤(3):根据像素点的LCH颜色空间特征和灰度共生矩阵纹理特征得到像素点的特征向量,用特征向量对图像进行模糊聚类,将像素点分为不同的类别,标记不同的分类标签编号;
步骤(4):根据步骤(2)得到的像素点的聚类中心编号和步骤(3)得到的分类标签编号对像素簇进行融合,将每个像素簇中所有像素点的分类标签编号的均值作为像素簇的分类标签,并把分类标签相同的像素簇进行合并。
更进一步地,本发明的特点还在于:
步骤(1)具体包括以下步骤:
步骤(1.1):将图像预分割为K个尺寸相同的像素簇,则共有K个聚类中心;设图像共有N个像素点,则每个像素簇的大小为N/K,相邻的聚类中心之间的间隔STEP=(N/K)1/2
步骤(1.2):计算在聚类中心np*np范围内所有像素点的梯度值,将聚类中心移到np*np范围内梯度最小的地方;
步骤(1.3):计算在每一个聚类中心周围nx*nx范围内每个像素点与聚类中心的颜色距离dc和空间距离ds,根据dc和ds计算每个像素点与聚类中心的距离度量D`;
步骤(1.4):每一个像素点与周围的聚类中心对应有若干个距离度量D`,将若干个距离度量D`中最小距离度量min(D`)对应的聚类中心作为该像素点的聚类中心;
步骤(1.5):对每一个聚类中心周围nx*nx范围内每个像素点进行步骤(1.4)的操作,找到每个像素点对应的聚类中心;
在遍历所有聚类中心后,更新聚类中心的颜色坐标和空间坐标为所有隶属于这个聚类中心的像素点的颜色坐标(L,a,b)和空间坐标(x,y)的平均值;
重复聚类过程,完成迭代。
步骤(1.2)具体包括以下步骤:
步骤(1.2.1):将图像从RGB彩色图像转为灰度图像,设图像坐标(i,j)处的像素点的RGB值为R(i,j),G(i,j),B(i,j),则坐标(i,j)处像素点的灰度值Gray(i,j)的计算公式如下:
Gray(i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
步骤(1.2.2):计算在聚类中心np*np范围内所有像素点的梯度值,位于坐标(i,j)处的像素点的梯度值计算公式如下:
其中,GX是图像在像素点(i,j)处X方向的梯度,GY是图像在像素点(i,j)处Y方向的梯度,G(i,j)是图像在像素点(i,j)处的梯度强度,hx是X方向的梯度算子,hy是Y方向的梯度算子,k是梯度算子在X方向的范围,l是梯度算子在Y方向的范围;
步骤(1.2.3):将聚类中心移到np*np范围内梯度最小的地方;
在步骤(1.3)中:
记两个像素点的Lab颜色空间坐标分别为X1=(L1,a1,b1),X2=(L2,a2,b2),则X1和X2的颜色距离dc为:
其中,S-1是X1和X2两个样本的协方差矩阵;
记两个像素点的空间坐标分别为S1=(x1,y1),S2=(x2,y2),则S1和S2的空间距离ds为:
两个像素点的距离度量D`为:
其中,m为加权系数;
步骤(1.5)具体包括以下步骤:
步骤(1.5.1):将图像中每个像素点到对应的聚类中心的距离度量Di`赋值为无穷大,i=1~N;将像素点对应的聚类中心编号Labeli赋值为0,i=1~N;
遍历在当前聚类中心周围nx*nx范围内每个像素点到当前聚类中心的距离度量Dp`,若Dp`小于Di`,则将当前像素点的距离度量Di`替换为Dp`,将当前像素点对应的聚类中心编号Labeli替换为当前聚类中心的编号;
步骤(1.5.2):在遍历所有聚类中心后,更新每个聚类中心的颜色坐标和空间坐标为所有隶属于这个聚类中心的像素点的颜色坐标(L,a,b)和空间坐标(x,y)的平均值,完成一轮聚类。
步骤(1.5.3):重复步骤(1.5.1)和步骤(1.5.2)niter次,至此,隶属于同一个聚类中心的像素点组成一个像素簇,像素簇的总数目为K个。
在步骤(1)中,m取1至40;niter取10;np取4;nx取2.5*STEP。
步骤(2)具体包括以下步骤:
步骤(2.1):设允许像素簇包含的最少像素个数为minN;将图像中每一个像素点的访问状态初始化为未访问;
步骤(2.2):按照从左到右,从上到下的顺序遍历所有像素点,寻找像素点的连通域,计算连通域的像素个数,如果像素个数小于minN,则将连通域合并到周围的像素簇中;
步骤(2.3):统计与合并后像素簇相邻的像素点的聚类中心编号,以出现次数最多的聚类中心编号Labelx替换合并后像素簇中所有像素点的聚类中心编号Labeli,并标记合并后像素簇中所有像素点为已访问;
步骤(2.4):然后对下一个未访问的像素点进行步骤(2.2)和步骤(2.3)的操作,直到所有像素点都标记为已访问。
步骤(3)具体包括以下步骤:
步骤(3.1):将每个像素点的颜色空间坐标从(L,a,b)转换为(L,c,h);
步骤(3.2):将图像从RGB彩色图像转换为8阶灰度图像,在每一个像素点Gn*Gn范围内,计算像素点在0°、45°、90°、135°四个方向的灰度共生矩阵,计算四个方向的灰度共生矩阵的能量Energy、Energy45°、Energy90°、Energy135°,将每个像素点的L,c,h坐标和灰度共生矩阵能量Energy、Energy45°、Energy90°、Energy135°共7个特征作为特征向量Xi进行存储;
步骤(3.3):对于图像中所有像素点的特征向量Xi,i=1~N,按照FCM模糊聚类方法分为P类,每个像素点的分类标签编号为Classi,i=1~N。
在步骤(3)中:
颜色空间坐标从Lab到Lch的转换如下:
L=L
图像从RGB彩色图像转换为8阶灰度图像的转换方法如下:
Gray256 (i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
Gray8 (i,j)=ceil(Gray256 (i,j)/32)
其中,Gary256 (i,j)指的是(i,j)位置像素点256阶的灰度值,Gary8 (i,j)指(i,j)位置像素点8阶的灰度值,ceil()函数表示向下取整形。
灰度共生矩阵的计算方式如下
P0°,d(a,b)=|{[(k,l),(m,n)]∈D:
k-m=0,|l-n|=d,Gray8(k,l)=a,Gray8(m,n)=b}|
P45°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=-d)∨(k-m=-d,l-n=d),Gray8(k,l)=a,Gray8(m,n)=b}|P90°,d(a,b)=|{[(k,l),(m,n)]∈D:
|k-m|=d,l-n=0,Gray8(k,l)=a,Gray8(m,n)=b}|
P135°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=d)∨(k-m=-d,l-n=-d),Gray8(k,l)=a,Gray8(m,n)=b}|
其中d表示像素间隔,(k,l),(m,n)分别为原像素和偏移后像素坐标,其中k,m为纵坐标,l,n为横坐标,D为全图范围,P0°,d(a,b)为像素点在0°方向的灰度共生矩阵,P45°,d(a,b)为像素点在45°方向的灰度共生矩阵,P90°,d(a,b)为像素点在90°方向的灰度共生矩阵,P135°,d(a,b)为像素点在135°方向的灰度共生矩阵;
计算灰度共生矩阵能量的方法如下:
φ为0°或45°或90°或135°。
通过调整隶属度概率阈值Thc来动态调控FCM模糊聚类方法的分类状况。
Thc取0.6,Gn取5。
步骤(4)具体包括以下步骤:
步骤(4.1):将每个像素簇中所有像素点的分类标签编号的均值作为像素簇的分类标签;
步骤(4.2):遍历所有的像素簇,寻找与当前像素簇有相同分类标签的相邻像素簇,从相邻像素簇再去寻找相邻并且有相同分类标签的像素簇,从当前像素簇开始,逐层向外去合并,用当前像素簇的聚类中心编号替换相邻像素簇原有的聚类中心编号,直到找不到有相同分类标签的相邻像素簇为止;
步骤(4.3):最后,对融合好的聚类中心编号从1开始逐个再分配编号值。
与现有技术相比,本发明具有以下有益的技术效果:
本发明提供的一种基于颜色空间分类的无人机遥感图像分割方法,把高分辨率无人机遥感图像分割成一系列像素簇,再利用颜色空间坐标和纹理特征的相似性对像素点分类,最后结合分类的结果引导像素簇之间的融合,保证最后的每个分区基本属于同质区域,达到快速准确分割高分辨率无人机遥感图像的目的,实现了快速准确提取遥感图像中对象的目的,方便后续针对对象的进一步分析。本发明特别适用于利用无人机遥感图像对特定目标进行检索、识别、分类或变化检测。
进一步地,本发明选取了合适的参数,执行速度快,分割准确。
附图说明
图1是本发明提供的一种基于颜色空间分类的无人机遥感图像分割方法的流程图;
图2是本发明中步骤(1)的流程图;
图3是本发明中步骤(2)的流程图;
图4是本发明中步骤(3)的流程图;
图5是本发明中步骤(4)的流程图;
图6(a)为待分割的高分辨率无人机遥感图像,图6(b)是连通分量调整后的聚类分割结果,图6(c)是像素点分类的结果;图6(d)为经过像素簇融合之后最终的分割结果。
具体实施方式
下面结合附图对本发明做进一步详细描述:
如图1所示,本发明提供的一种基于颜色空间分类的无人机遥感图像分割方法,处理对象是高分辨率无人机遥感图像,具体包括图像快速聚类分割、连通分量调整、像素点分类、像素簇融合。
步骤(1)、图像快速聚类分割:
图像快速聚类分割是利用像素点之间的颜色距离和空间距离来判断像素点的相似性,将一定范围内(根据初始设置的聚类中心)相似性高的像素点聚合在一起,标记相同的聚类中心编号,将图像分割成一系列小的像素簇。如图2所示,步骤(1)具体包括以下步骤:
步骤(1.1):初始化聚类中心:设定初始分割的个数为K,即按照等像素间隔将图像分割成K个像素簇Segj(j∈[1,K]),其中像素簇的意义是一群像素点的集合,所以共有K个聚类中心Cj(j∈[1,K]),假设图像一共有N个像素点,那么每个像素簇的大小为N/K,相邻的聚类中心之间的步长STEP=(N/K)1/2,即相邻的聚类中心之间的间隔,STEP表示了一个像素簇的预期边长。
步骤(1.2):在聚类中心的np*np范围内重新选择聚类中心。首先将图像从RGB彩色图像转为灰度图像,假设图像坐标(i,j)处的RGB值为R(i,j),G(i,j),B(i,j),则该像素点灰度值Gray(i,j)的计算公式如下:
Gray(i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
计算该邻域内所有像素点的梯度值,位于图像(i,j)位置的梯度值的计算公式如下
其中GX和GY分别是在图像在(i,j)点X和Y方向的梯度,G(i,j)是在这点上的梯度强度,hx=[-1 0 1;-1 0 1;-1 0 1;],hy=[-1 -1 -1;0 0 0;1 1 1],分别是X和Y方向的梯度算子。
将聚类中心移到该邻域内梯度最小的地方。这样做避免聚类中心落在边界上,影响后续的分割效果。
步骤(1.3):计算距离,对每一个聚类中心,计算在它周围nx*nx范围内每个像素点与聚类中心的颜色距离dc和空间距离ds
颜色距离dc是指:记两个像素点的Lab颜色空间坐标为X1=(L1,a1,b1),X2=(L2,a2,b2),则X1和X2的颜色距离dc为:
其中S-1是X1和X2两个样本的协方差矩阵。
空间距离ds是指:记两个像素点的空间坐标为S1=(x1,y1),S2=(x2,y2),则S1和S2的空间距离ds为:
然后,根据dc和ds计算每个像素点最终与聚类中心的距离度量D`,距离度量D`是指:记两个像素点的颜色距离为dc,空间距离为ds,则距离度量D`为
其中STEP是相邻种子之间的间隔,m是加权系数,其意义为控制被STEP归一化的空间距离ds和颜色距离dc对最终距离度量D`的影响权重,m越大,聚类形成的像素簇形状越规则整齐,但颜色差异大的像素点越有可能被归为一个像素簇,m越小,聚类形成的像素簇形状越崎岖,每一个像素簇越有可能具有较大的空间跨度,但是颜色更加统一,经实验证实,m取1至40效果较为理想。示例地,m取30。
步骤(1.4):中心聚类,每个像素点都会被周围的多个聚类中心搜索到,所以每个像素点都会有一个或几个与周围聚类中心的距离度量D`,在这些距离度量D`中取最小值min(D`),将其对应的聚类中心作为该像素点的聚类中心Cj,假设位置(i,j)的像素点被周围K个聚类中心搜索到,这K个聚类中心对应着K个聚类中心(C1,C2,…,CK),该像素点一共有K个距离度量(D`1,D`2,…,D`K),在这K个距离度量中取最小的一个D`min=min(D`1,D`2,…,D`K),min()表示取一组数中的最小值,将D`min对应的聚类中心C`min作为该像素点的聚类中心。
步骤(1.5):聚类迭代,对图像进行niter轮聚类,每一轮聚类过程的具体步骤如下:
首先,对图像中每个像素点到对应的聚类中心的距离度量Di`赋值为无穷大(i=1~N),将像素点对应的聚类中心编号Labeli赋值为0(i=1~N),遍历所有的聚类中心,遍历在它周围nx*nx范围内每个像素点,如果当前像素点到当前聚类中心的距离度量Dp`小于Di`,则将当前像素点的距离度量Di`替换为Dp`,将当前像素点对应的聚类中心编号Labeli替换为当前聚类中心的编号。
然后,在遍历所有聚类中心结束后,更新每个聚类中心的颜色坐标和空间坐标为所有隶属于这个聚类中心的像素点的相应颜色坐标(L,a,b)和空间坐标(x,y)的平均值,完成一轮聚类。
继而,重复上述两个过程niter次,至此,隶属于同一个聚类中心的像素点组成一个像素簇,像素簇的总数目为K个。
步骤(2)、连通分量调整:
经过快速聚类分割的图像有可能出现以下的瑕疵,出现多连通情况、像素簇的尺寸过小,单个像素簇被切割成多个不连续像素簇等,这些情况要通过连通分量调整来解决。具体执行步骤如下:
如图3所示,即一个像素簇最少包含minN个像素点,minN为合并面积阈值,将图像中每一个像素点的访问状态初始化为“未访问”。
然后,按照“Z”型走向,即从左到右,从上到下顺序,遍历所有像素点,寻找像素点的4连通域或8连通域Connect,计算连通域的面积,如果面积小于minN,则需要将这个连通域整个合并到周围的像素簇中去,判断邻近像素簇的聚类中心编号的方法是寻找所有与Connect相邻的像素点,统计这些像素点的Label出现次数最多的Label`作为要合并的聚类中心编号,将Connect中所有的Label替换为Label`,并且标记所有Connect中的像素点为“已访问”,然后指向下一个“未访问”像素点进行上述操作,直到所有像素点都标记为“已访问”。
其中,8连通域的定义为:一组像素点的集合B中任意两个像素点可由一条由B中像素点组成的路径相连,使路径上任意相邻像素点的x,y方向坐标的差值都不大于1,相邻像素点指的是像素点周围8个方向的相邻点,在这里8个方向是指左、右、上、下、左上、右上、左下、右下。
4连通域的定义为:一组像素点的集合B中任意两个像素点可由一条由B中像素点组成的路径相连,使路径上任意相邻像素点的x,y方向坐标的差值都不大于1,相邻像素点指的是像素点周围4个方向的相邻点,在这里4个方向是指左、右、上、下。
步骤(3)、像素点分类:
步骤(3.1):颜色空间转换,将每个像素点的颜色空间坐标从(L,a,b)转换为(L,c,h),用色度和色相来表示颜色的特征,Lch到Lab颜色空间坐标的转换如下所示:
L=L
采用Lch颜色空间坐标的原因是色度和色相可以分离开,对颜色的区分更加接近人眼对颜色的感知。
步骤(3.2):计算灰度共生矩阵,用灰度共生矩阵的能量作为图像的纹理特征,将图像从256阶RGB彩色图像转换为8阶灰度图像,转换方法如下所示:
Gray256 (i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
Gray8 (i,j)=ceil(Gray256 (i,j)/32)
其中,Gary256 (i,j)指的是(i,j)位置像素点256阶的灰度值,Gary8 (i,j)指(i,j)位置像素点8阶的灰度值,ceil()函数表示向下取整形。
对每个像素点,取其邻域Gn*Gn个像素点窗口计算其0°、45°、90°、135°四个方向的灰度共生矩阵(8*8*4),这四个方向的灰度共生矩阵的计算方式如下:
P0°,d(a,b)=|{[(k,l),(m,n)]∈D:
k-m=0,|l-n|=d,Gray8(k,l)=a,Gray8(m,n)=b}|
P45°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=-d)∨(k-m=-d,l-n=d),Gray8(k,l)=a,Gray8(m,n)=b}|
P90°,d(a,b)=|{[(k,l),(m,n)]∈D:
|k-m|=d,l-n=0,Gray8(k,l)=a,Gray8(m,n)=b}|
P135°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=d)∨(k-m=-d,l-n=-d),Gray8(k,l)=a,Gray8(m,n)=b}|
其中d表示像素间隔,(k,l),(m,n)分别为原像素和偏移后像素坐标,其中k,m为纵坐标,l,n为横坐标,D为全图范围。
计算四个方向的灰度共生矩阵的能量Energy、Energy45°、Energy90°、Energy135°。能量反应了图像灰度分布均匀程度和纹理粗细度,能量值大表明当前纹理是一种规则变化较为稳定的纹理。计算灰度共生矩阵能量的方法如下所示:
将每个像素点的L,c,h坐标和灰度共生矩阵能量Energy、Energy45°、Energy90°、Energy135°共7个特征作为特征向量Xi进行存储,共有N个特征向量。
步骤(3.2):对于图像中所有像素点的特征向量Xi(i=1~N),按照FCM模糊聚类的方法分为P类,采用FCM而不采用硬聚类的原因是对于7维特征硬聚类的分类效果与预期的有差异,有些语义相差较远的像素点也被聚为同一类别,比如遥感图中的植被和土壤,采用FCM可以通过调整隶属度概率阈值Thc来动态调控分类的状况,优化分类的结果,经过FCM聚类后,每个像素点的分类标签编号为Classi(i=1~N)。优选地,隶属度概率阈值Thc取0.6。
步骤(4)、像素簇融合:
经过以上三个步骤,图像中的每一个像素点都有两个属性编号,一个是聚类中心编号Labeli,另一个是分类标签编号Classi。如图5所示,对像素簇的融合的具体过程包括以下步骤:
首先,对每个像素簇,计算包含在这个像素簇中所有像素点的分类编号的均值mean(Classi),i指所有包含在当前像素簇中的像素点,作为当前像素簇整体的分类标签编号SClassj(j=1~K),并且将所有的像素簇的访问状态Pvisiti置为0,即未访问。
然后,遍历所有的未访问的像素簇,寻找与当前像素簇相邻的所有像素簇,将所有与当前像素簇相邻并且分类标签编号SClassj相同的像素簇的聚类中心编号替换为当前像素簇的聚类中心编号,与当前像素簇融合,并且将这些分类标签编号相同的像素簇的访问状态Pvisiti置为1,即已访问,对这些分类标签编号相同的像素簇,继续寻找相邻像素簇,对分类标签编号相同的继续融合,直到对于所有相邻的像素簇都已经完成了融合,再跳转至下一个未访问的像素簇去进行下一次融合,直到所有的像素簇都已经被访问了为止。
最后,经过以上步骤,所有相邻的像素簇如果分类标签编号相同就已经是同一个聚类中心编号了,统计所有的聚类中心编号的类别,将其按1~Kcluster重新编号,Kcluster是融合后的分区的个数,这些分区里面包含了相邻的分类标签编号相同像素簇。
这样,就把图像分割成了一个个具有颜色和纹理特征的分区,这些分区就是对图像分割的最终结果。
在本实施例中,本发明处理对象为7360x4912大小的无人机遥感图像。距离度量加权系数m=30,聚类次数niter=10,根据梯度重新选择聚类中心的范围np=4,计算与聚类中心距离的范围nx=2.5*STPE,计算灰度共生矩阵的邻域窗口大小Gn=5,隶属度概率阈值Thc=0.6。每一层图像处理步骤如图6所示。其中,图6(a)为待分割的高分辨率无人机遥感图像,图6(b)是连通分量调整后的快速聚类分割结果,图6(c)是像素点分类的结果,每个灰度代表一类,图6(d)为经过像素簇融合之后最终的分割结果。算法的运行结果将建筑群、土壤、植被分割到不同的分区中,与现有分割相比,运行速度提高2.4倍,并且分割出的语义更明确,过分割和椒盐噪声的情况基本没有出现。可以看出,本发明能够对高分辨率无人机遥感图像进行快速、准确的分割。

Claims (10)

1.一种基于颜色空间分类的无人机遥感图像分割方法,其特征在于,包括以下步骤:
步骤(1):通过图像像素点之间的颜色距离和空间距离来判断像素点的相似性,将设定范围内相似的像素点聚合在一起并标记相同的聚类中心编号,将图像分割成若干个像素簇;
步骤(2):对像素簇的面积进行连通分量调整,将面积小于设定阈值的像素簇合并到周围的像素簇中,并使合并后的像素簇中的像素点使用相同的聚类中心编号;
步骤(3):根据像素点的LCH颜色空间特征和灰度共生矩阵纹理特征得到像素点的特征向量,用特征向量对图像进行模糊聚类,将像素点分为不同的类别,标记不同的分类标签编号;
步骤(4):根据步骤(2)得到的像素点的聚类中心编号和步骤(3)得到的分类标签编号对像素簇进行融合,将每个像素簇中所有像素点的分类标签编号的均值作为像素簇的分类标签,并把分类标签相同的像素簇进行合并。
2.根据权利要求1所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,步骤(1)具体包括以下步骤:
步骤(1.1):将图像预分割为K个尺寸相同的像素簇,则共有K个聚类中心;设图像共有N个像素点,则每个像素簇的大小为N/K,相邻的聚类中心之间的间隔STEP=(N/K)1/2
步骤(1.2):计算在聚类中心np*np范围内所有像素点的梯度值,将聚类中心移到np*np范围内梯度最小的地方;
步骤(1.3):计算在每一个聚类中心周围nx*nx范围内每个像素点与聚类中心的颜色距离dc和空间距离ds,根据dc和ds计算每个像素点与聚类中心的距离度量D`;
步骤(1.4):每一个像素点与周围的聚类中心对应有若干个距离度量D`,将若干个距离度量D`中最小距离度量min(D`)对应的聚类中心作为该像素点的聚类中心;
步骤(1.5):对每一个聚类中心周围nx*nx范围内每个像素点进行步骤(1.4)的操作,找到每个像素点对应的聚类中心;
在遍历所有聚类中心后,更新聚类中心的颜色坐标和空间坐标为所有隶属于这个聚类中心的像素点的颜色坐标(L,a,b)和空间坐标(x,y)的平均值;
重复步骤(1.4)和步骤(1.5),完成迭代。
3.根据权利要求2所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于:
步骤(1.2)具体包括以下步骤:
步骤(1.2.1):将图像从RGB彩色图像转为灰度图像,设图像坐标(i,j)处的像素点的RGB值为R(i,j),G(i,j),B(i,j),则坐标(i,j)处像素点的灰度值Gray(i,j)的计算公式如下:
Gray(i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
步骤(1.2.2):计算在聚类中心np*np范围内所有像素点的梯度值,位于坐标(i,j)处的像素点的梯度值计算公式如下:
<mrow> <msub> <mi>G</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <msub> <mi>G</mi> <mi>X</mi> </msub> <mn>2</mn> </msup> <mo>+</mo> <msup> <msub> <mi>G</mi> <mi>Y</mi> </msub> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
<mrow> <msub> <mi>G</mi> <mi>X</mi> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </munder> <msub> <mi>Gray</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mi>k</mi> <mo>,</mo> <mi>j</mi> <mo>+</mo> <mi>l</mi> <mo>)</mo> </mrow> </msub> <msub> <mi>hx</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>)</mo> </mrow> </msub> </mrow>
<mrow> <msub> <mi>G</mi> <mi>Y</mi> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </munder> <msub> <mi>Gray</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mi>k</mi> <mo>,</mo> <mi>j</mi> <mo>+</mo> <mi>l</mi> <mo>)</mo> </mrow> </msub> <msub> <mi>hy</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>l</mi> <mo>)</mo> </mrow> </msub> </mrow>
其中,GX是图像在像素点(i,j)处X方向的梯度,GY是图像在像素点(i,j)处Y方向的梯度,G(i,j)是图像在像素点(i,j)处的梯度强度,hx是X方向的梯度算子,hy是Y方向的梯度算子,k是梯度算子在X方向的范围,l是梯度算子在Y方向的范围;
步骤(1.2.3):将聚类中心移到np*np范围内梯度最小的地方;
在步骤(1.3)中:
记两个像素点的Lab颜色空间坐标分别为X1=(L1,a1,b1),X2=(L2,a2,b2),则X1和X2的颜色距离dc为:
<mrow> <msub> <mi>d</mi> <mi>c</mi> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>X</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <msup> <mi>S</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>X</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </msqrt> </mrow>
其中,S-1是X1和X2两个样本的协方差矩阵;
记两个像素点的空间坐标分别为S1=(x1,y1),S2=(x2,y2),则S1和S2的空间距离ds为:
<mrow> <msub> <mi>d</mi> <mi>s</mi> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
两个像素点的距离度量D`为:
<mrow> <mi>D</mi> <mo>=</mo> <msqrt> <mrow> <msup> <msub> <mi>d</mi> <mi>c</mi> </msub> <mn>2</mn> </msup> <mo>+</mo> <mrow> <mo>(</mo> <mfrac> <mrow> <msup> <msub> <mi>d</mi> <mi>s</mi> </msub> <mn>2</mn> </msup> </mrow> <mrow> <mi>S</mi> <mi>T</mi> <mi>E</mi> <mi>P</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <msup> <mi>m</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
其中,m为加权系数;
步骤(1.5)具体包括以下步骤:
步骤(1.5.1):将图像中每个像素点到对应的聚类中心的距离度量Di`赋值为无穷大,i=1~N;将像素点对应的聚类中心编号Labeli赋值为0,i=1~N;
遍历在当前聚类中心周围nx*nx范围内每个像素点到当前聚类中心的距离度量Dp`,若Dp`小于Di`,则将当前像素点的距离度量Di`替换为Dp`,将当前像素点对应的聚类中心编号Labeli替换为当前聚类中心的编号;
步骤(1.5.2):在遍历所有聚类中心后,更新每个聚类中心的颜色坐标和空间坐标为所有隶属于这个聚类中心的像素点的颜色坐标(L,a,b)和空间坐标(x,y)的平均值,完成一轮聚类;
步骤(1.5.3):重复步骤(1.5.1)和步骤(1.5.2)niter次,至此,隶属于同一个聚类中心的像素点组成一个像素簇,像素簇的总数目为K个。
4.根据权利要求3所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,在步骤(1)中,m取1至40;niter取10;np取4;nx取2.5*STEP。
5.根据权利要求1所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,步骤(2)具体包括以下步骤:
步骤(2.1):设允许像素簇包含的最少像素个数为minN;将图像中每一个像素点的访问状态初始化为未访问;
步骤(2.2):按照从左到右,从上到下的顺序遍历所有像素点,寻找像素点的连通域,计算连通域的像素个数,如果像素个数小于minN,则将连通域合并到周围的像素簇中;
步骤(2.3):统计与合并后像素簇相邻的像素点的聚类中心编号,以出现次数最多的聚类中心编号Labelx替换合并后像素簇中所有像素点的聚类中心编号Labeli,并标记合并后像素簇中所有像素点为已访问;
步骤(2.4):然后对下一个未访问的像素点进行步骤(2.2)和步骤(2.3)的操作,直到所有像素点都标记为已访问。
6.根据权利要求1所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,步骤(3)具体包括以下步骤:
步骤(3.1):将每个像素点的颜色空间坐标从(L,a,b)转换为(L,c,h);
步骤(3.2):将图像从RGB彩色图像转换为8阶灰度图像,在每一个像素点Gn*Gn范围内,计算像素点在0°、45°、90°、135°四个方向的灰度共生矩阵,计算四个方向的灰度共生矩阵的能量Energy、Energy45°、Energy90°、Energy135°,将每个像素点的L,c,h坐标和灰度共生矩阵能量Energy、Energy45°、Energy90°、Energy135°共7个特征作为特征向量Xi进行存储;
步骤(3.3):对于图像中所有像素点的特征向量Xi,i=1~N,按照FCM模糊聚类方法分为P类,每个像素点的分类标签编号为Classi,i=1~N。
7.根据权利要求6所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,在步骤(3)中:
颜色空间坐标从Lab到Lch的转换如下:
L=L
<mrow> <mi>c</mi> <mo>=</mo> <msqrt> <mrow> <msup> <mi>a</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>b</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
<mrow> <mi>h</mi> <mo>=</mo> <mi>arctan</mi> <mrow> <mo>(</mo> <mfrac> <mi>b</mi> <mi>a</mi> </mfrac> <mo>)</mo> </mrow> </mrow>
图像从RGB彩色图像转换为8阶灰度图像的转换方法如下:
Gray256 (i,j)=0.299R(i,j)+0.587G(i,j)+0.114B(i,j)
Gray8 (i,j)=ceil(Gray256 (i,j)/32)
其中,Gary256 (i,j)指的是(i,j)位置像素点256阶的灰度值,Gary8 (i,j)指(i,j)位置像素点8阶的灰度值,ceil()函数表示向下取整形;
灰度共生矩阵的计算方式如下
P0°,d(a,b)=|{[(k,l),(m,n)]∈D:
k-m=0,|l-n|=d,Gray8(k,l)=a,Gray8(m,n)=b}|
P45°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=-d)∨(k-m=-d,l-n=d),Gray8(k,l)=a,Gray8(m,n)=b}|
P90°,d(a,b)=|{[(k,l),(m,n)]∈D:
|k-m|=d,l-n=0,Gray8(k,l)=a,Gray8(m,n)=b}|
P135°,d(a,b)=|{[(k,l),(m,n)]∈D:
(k-m=d,l-n=d)∨(k-m=-d,l-n=-d),Gray8(k,l)=a,Gray8(m,n)=b}|
其中d表示像素间隔,(k,l),(m,n)分别为原像素和偏移后像素坐标,其中k,m为纵坐标,l,n为横坐标,D为全图范围,P0°,d(a,b)为像素点在0°方向的灰度共生矩阵,P45°,d(a,b)为像素点在45°方向的灰度共生矩阵,P90°,d(a,b)为像素点在90°方向的灰度共生矩阵,P135°,d(a,b)为像素点在135°方向的灰度共生矩阵;
计算灰度共生矩阵能量的方法如下:
<mrow> <msub> <mi>Energy</mi> <mi>&amp;phi;</mi> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>a</mi> <mo>,</mo> <mi>b</mi> </mrow> </munder> <msubsup> <mi>P</mi> <mrow> <mi>&amp;phi;</mi> <mo>,</mo> <mi>d</mi> </mrow> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow>
φ为0°或45°或90°或135°。
8.根据权利要求7所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,通过调整隶属度概率阈值Thc来动态调控FCM模糊聚类方法的分类状况。
9.根据权利要求8所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,Thc取0.6,Gn取5。
10.根据权利要求1所述的基于颜色空间分类的无人机遥感图像分割方法,其特征在于,步骤(4)具体包括以下步骤:
步骤(4.1):将每个像素簇中所有像素点的分类标签编号的均值作为像素簇的分类标签;
步骤(4.2):遍历所有的像素簇,寻找与当前像素簇有相同分类标签的相邻像素簇,从相邻像素簇再去寻找相邻并且有相同分类标签的像素簇,从当前像素簇开始,逐层向外去合并,用当前像素簇的聚类中心编号替换相邻像素簇原有的聚类中心编号,直到找不到有相同分类标签的相邻像素簇为止;
步骤(4.3):最后,对融合好的聚类中心编号从1开始逐个再分配编号值。
CN201710909619.8A 2017-09-29 2017-09-29 一种基于颜色空间分类的无人机遥感图像分割方法 Pending CN107784657A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710909619.8A CN107784657A (zh) 2017-09-29 2017-09-29 一种基于颜色空间分类的无人机遥感图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710909619.8A CN107784657A (zh) 2017-09-29 2017-09-29 一种基于颜色空间分类的无人机遥感图像分割方法

Publications (1)

Publication Number Publication Date
CN107784657A true CN107784657A (zh) 2018-03-09

Family

ID=61434016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710909619.8A Pending CN107784657A (zh) 2017-09-29 2017-09-29 一种基于颜色空间分类的无人机遥感图像分割方法

Country Status (1)

Country Link
CN (1) CN107784657A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002840A (zh) * 2018-06-26 2018-12-14 北京纵目安驰智能科技有限公司 一种基于级联的语义分割方法、系统、终端和存储介质
CN109308492A (zh) * 2018-09-20 2019-02-05 武汉大学 一种多特征自动分级聚合辅助下的遥感影像样本库快速标记方法
CN109461158A (zh) * 2018-11-19 2019-03-12 第四范式(北京)技术有限公司 彩色图像分割方法及系统
CN109859209A (zh) * 2019-01-08 2019-06-07 平安科技(深圳)有限公司 遥感影像分割方法、装置及存储介质、服务器
CN110084817A (zh) * 2019-03-21 2019-08-02 西安电子科技大学 基于深度学习的数字高程模型生产方法
CN110189297A (zh) * 2019-04-18 2019-08-30 杭州电子科技大学 一种基于灰度共生矩阵的磁性材料外观缺陷检测方法
CN110413002A (zh) * 2019-07-27 2019-11-05 杭州学联土地规划设计咨询有限公司 一种无人机遥感信息采集方法及装置
CN111862084A (zh) * 2020-07-31 2020-10-30 大连东软教育科技集团有限公司 基于复杂网络的图像质量评价方法、装置及存储介质
CN114475650A (zh) * 2021-12-01 2022-05-13 中铁十九局集团矿业投资有限公司北京信息技术分公司 一种车辆行驶行为确定方法、装置、设备及介质
CN115147746A (zh) * 2022-09-02 2022-10-04 广东容祺智能科技有限公司 基于无人机遥感图像的盐碱地质识别方法
CN115223050A (zh) * 2022-04-28 2022-10-21 湖北工程学院 一种极化卫星影像分析方法
CN116047546A (zh) * 2022-07-07 2023-05-02 北京玖天气象科技有限公司 基于多源卫星数据的山火监测方法
CN116757915A (zh) * 2023-08-16 2023-09-15 北京蓝耘科技股份有限公司 一种集群gpu资源调度方法
CN117292137A (zh) * 2023-11-27 2023-12-26 广东泰一高新技术发展有限公司 一种航拍遥感影像优化分割处理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021746A (zh) * 2014-05-05 2014-09-03 京东方科技集团股份有限公司 一种图像检测的方法及装置
CN106023145A (zh) * 2016-05-06 2016-10-12 哈尔滨工程大学 基于超像素标注的遥感图像的分割与识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021746A (zh) * 2014-05-05 2014-09-03 京东方科技集团股份有限公司 一种图像检测的方法及装置
CN106023145A (zh) * 2016-05-06 2016-10-12 哈尔滨工程大学 基于超像素标注的遥感图像的分割与识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
RADHAKRISHNA ACHANTA ETC.: ""SLIC Superpixels Compared to State-of-the-art Superpixel Methods"", 《JOURNAL OF LATEX CLASS FILES》 *
于海涛: ""基于超像素区域融合的遥感图像地物分类算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
章小平等: ""基于空间信息与模糊聚类的纹理分割方法"", 《模糊系统与数学》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002840A (zh) * 2018-06-26 2018-12-14 北京纵目安驰智能科技有限公司 一种基于级联的语义分割方法、系统、终端和存储介质
CN109308492B (zh) * 2018-09-20 2021-04-02 武汉大学 一种多特征自动分级聚合辅助下的遥感影像样本库快速标记方法
CN109308492A (zh) * 2018-09-20 2019-02-05 武汉大学 一种多特征自动分级聚合辅助下的遥感影像样本库快速标记方法
CN109461158A (zh) * 2018-11-19 2019-03-12 第四范式(北京)技术有限公司 彩色图像分割方法及系统
CN109859209A (zh) * 2019-01-08 2019-06-07 平安科技(深圳)有限公司 遥感影像分割方法、装置及存储介质、服务器
CN109859209B (zh) * 2019-01-08 2023-10-17 平安科技(深圳)有限公司 遥感影像分割方法、装置及存储介质、服务器
CN110084817A (zh) * 2019-03-21 2019-08-02 西安电子科技大学 基于深度学习的数字高程模型生产方法
CN110084817B (zh) * 2019-03-21 2021-06-25 西安电子科技大学 基于深度学习的数字高程模型生产方法
CN110189297B (zh) * 2019-04-18 2021-02-19 杭州电子科技大学 一种基于灰度共生矩阵的磁性材料外观缺陷检测方法
CN110189297A (zh) * 2019-04-18 2019-08-30 杭州电子科技大学 一种基于灰度共生矩阵的磁性材料外观缺陷检测方法
CN110413002A (zh) * 2019-07-27 2019-11-05 杭州学联土地规划设计咨询有限公司 一种无人机遥感信息采集方法及装置
CN111862084A (zh) * 2020-07-31 2020-10-30 大连东软教育科技集团有限公司 基于复杂网络的图像质量评价方法、装置及存储介质
CN111862084B (zh) * 2020-07-31 2024-02-02 东软教育科技集团有限公司 基于复杂网络的图像质量评价方法、装置及存储介质
CN114475650A (zh) * 2021-12-01 2022-05-13 中铁十九局集团矿业投资有限公司北京信息技术分公司 一种车辆行驶行为确定方法、装置、设备及介质
CN114475650B (zh) * 2021-12-01 2022-11-01 中铁十九局集团矿业投资有限公司 一种车辆行驶行为确定方法、装置、设备及介质
CN115223050A (zh) * 2022-04-28 2022-10-21 湖北工程学院 一种极化卫星影像分析方法
CN115223050B (zh) * 2022-04-28 2023-08-18 湖北工程学院 一种极化卫星影像分析方法
CN116047546B (zh) * 2022-07-07 2024-02-27 北京玖天气象科技有限公司 基于多源卫星数据的山火监测方法
CN116047546A (zh) * 2022-07-07 2023-05-02 北京玖天气象科技有限公司 基于多源卫星数据的山火监测方法
CN115147746A (zh) * 2022-09-02 2022-10-04 广东容祺智能科技有限公司 基于无人机遥感图像的盐碱地质识别方法
CN115147746B (zh) * 2022-09-02 2022-11-29 广东容祺智能科技有限公司 基于无人机遥感图像的盐碱地质识别方法
CN116757915B (zh) * 2023-08-16 2023-11-28 北京蓝耘科技股份有限公司 一种集群gpu资源调度方法
CN116757915A (zh) * 2023-08-16 2023-09-15 北京蓝耘科技股份有限公司 一种集群gpu资源调度方法
CN117292137A (zh) * 2023-11-27 2023-12-26 广东泰一高新技术发展有限公司 一种航拍遥感影像优化分割处理方法
CN117292137B (zh) * 2023-11-27 2024-04-19 广东泰一高新技术发展有限公司 一种航拍遥感影像优化分割处理方法

Similar Documents

Publication Publication Date Title
CN107784657A (zh) 一种基于颜色空间分类的无人机遥感图像分割方法
CN109614985B (zh) 一种基于密集连接特征金字塔网络的目标检测方法
CN107067405B (zh) 基于尺度优选的遥感影像分割方法
CN106056155B (zh) 基于边界信息融合的超像素分割方法
CN108830870B (zh) 基于多尺度结构学习的卫星影像高精度农田边界提取方法
CN106127791B (zh) 一种航空遥感影像的建筑物轮廓线提取方法
CN107247938A (zh) 一种高分辨率遥感影像城市建筑物功能分类的方法
CN109034233B (zh) 一种结合OpenStreetMap的高分辨率遥感影像多分类器联合分类方法
CN107909015A (zh) 基于卷积神经网络及空谱信息融合的高光谱图像分类方法
CN106897679A (zh) 一种基于改进模糊c均值聚类的语义变化检测方法及系统
CN107480620A (zh) 基于异构特征融合的遥感图像自动目标识别方法
CN107563413A (zh) 无人机航拍影像农田块对象精准提取方法
CN105513066B (zh) 一种基于种子点选取与超像素融合的通用物体检测方法
CN110728197B (zh) 基于深度学习的单木级树种识别方法
CN102521597B (zh) 一种基于分级策略的影像直线特征匹配方法
CN108629783A (zh) 基于图像特征密度峰值搜索的图像分割方法、系统及介质
CN110222767A (zh) 基于嵌套神经网络和栅格地图的三维点云分类方法
CN105976376A (zh) 一种基于部件模型的高分辨sar图像目标检测方法
CN104239890A (zh) 高分1号卫星的沿岸陆地土地覆被信息自动提取的方法
CN111611960B (zh) 一种基于多层感知神经网络大区域地表覆盖分类方法
CN108921025A (zh) 一种协同变化检测的对象级分类样本自动选择方法
CN110070545A (zh) 一种城镇纹理特征密度自动提取城镇建成区的方法
CN105069459B (zh) 一种针对高分辨率sar图像地物类型提取方法
CN110634142B (zh) 一种复杂车路图像边界优化方法
CN104966091A (zh) 一种基于无人机遥感影像的露天矿道路提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180309