CN109886146B - 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 - Google Patents

基于机器视觉检测的洪灾信息遥感智能采集方法及设备 Download PDF

Info

Publication number
CN109886146B
CN109886146B CN201910086335.2A CN201910086335A CN109886146B CN 109886146 B CN109886146 B CN 109886146B CN 201910086335 A CN201910086335 A CN 201910086335A CN 109886146 B CN109886146 B CN 109886146B
Authority
CN
China
Prior art keywords
remote sensing
water body
flood
image
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910086335.2A
Other languages
English (en)
Other versions
CN109886146A (zh
Inventor
汪权方
张雨
杨宇琪
汪倩倩
王新生
陈龙跃
陈志杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University
Original Assignee
Hubei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University filed Critical Hubei University
Priority to CN201910086335.2A priority Critical patent/CN109886146B/zh
Publication of CN109886146A publication Critical patent/CN109886146A/zh
Application granted granted Critical
Publication of CN109886146B publication Critical patent/CN109886146B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于机器视觉检测的洪灾信息遥感智能采集方法及设备。所述方法包括:遥感目标多特征表达可视化;对可视化后的遥感目标图像,进行颜色空间转换和水体遥感色差距离图像的生成;针对水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;针对水体分类特征集,使用训练数据集进行机器学习,构建强分类器;将强分类器应用于HSV图像色彩聚类结果,识别出包括洪涝淹没区在内的水体类别;综合洪灾前后的水体识别结果,获取灾情信息。本发明提供的基于机器视觉检测的洪灾信息遥感智能采集方法及设备,能够实现大范围洪涝灾情信息的遥感智能高效采集。

Description

基于机器视觉检测的洪灾信息遥感智能采集方法及设备
技术领域
本发明实施例涉及模式识别技术领域,尤其涉及一种基于机器视觉检测的洪灾信息遥感智能采集方法及设备。
背景技术
信息智能提取是遥感大数据时代的研究热点之一。近年来,随着天地一体化对地观测网络的形成和智能计算技术的快速发展,遥感信息技术正逐渐进入一个以数据模型驱动、大数据智能分析为特征的发展新阶段,信息智能提取已成为遥感大数据时代的必然趋势。利用已在计算机视觉识别领域取得巨大成功的机器学习方法,实现包括大范围洪涝灾情信息在内的地表信息自动采集,将有助于遥感技术从专业遥感蜕变为大众遥感。
事实上,自动获取准确的洪水淹没区域以及受灾面积和淹水历时等方面的灾情信息早已备受关注。这对于快速响应防洪抗涝决策和精准应急救灾的需要等尤为重要。从已有研究来看,目前对于大范围洪涝淹没区的识别,普遍采用基于卫星遥感技术的洪灾前后水体遥测结果差异来提取洪涝淹没区范围。在此过程中,用于水体信息的遥感检测方法,可以归纳为以下主要几类:单波段阈值法、谱间关系法、比值指数法、图像分类法和基于多特征多分类器组合的水体信息提取方法等。其中,基于多特征多分类器组合的水体信息提取法是主要针对仅以单一特征构造的分类器往往不能反映地物真实情况,从而导致水体提取效果不理想的现象,提出了一种利用水体的基本特征(光谱、指数等)构造多个简单的弱分类器,然后将弱分类器进行加权组合,最终生成一个强分类器来识别水体,因此,该方法相比其他几种水体遥感识别方法来说具有较高的水体信息提取精度。但是,该方法也是仅从水的遥感可分性出发,使用NDWI、MNDWI和WRI等水体指数来构造分类器,然而洪涝淹没区并不等同于水域,因此,这一主要适用于常规水体的识别方法,难以胜任包括作物被淹后形成的洪涝淹没区等临时性水域的信息提取。此外,该方法在应用过程中需要高质量的训练数据集来参与弱分类器的训练,以便于寻找出每个弱分类器上最佳的图像分割阈值并据此计算各个弱分类器的权重系数。但是,由此也导致了该方法对于水体信息的提取精度与训练样本的典型性和代表性密切相关。当训练样本的代表性不足,水体样本未能充满图像中水体灰度值的分布区间时,利用这一现有方法难以找出相应分类器上最佳的分割阈值。
综上可知,找到一种可以在不依赖高质量的训练样本的基础上,能够对包括洪涝淹没区在内的各类水体进行遥感智能识别方法,以实现大范围洪涝灾情信息的精确采集就成为业界亟待解决的技术问题。
发明内容
针对现有技术存在的上述问题,本发明实施例提供了一种基于机器视觉检测的洪灾信息遥感智能采集方法及设备。
第一方面,本发明的实施例提供了一种基于机器视觉检测的洪灾信息遥感智能采集方法,包括:
遥感目标多特征表达可视化;对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换;在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像;针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;针对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器;根据所述弱分类器的权重系数,构建强分类器;针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,对包括洪涝淹没区在内的所有水体所在的类别进行智能识别;综合洪灾前后的水体识别结果,采用地理空间叠置分析法,得到洪涝淹没区,并进行不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息的统计汇总。
进一步地,所述将遥感目标多特征表达可视化,包括:构建由归一化植被指数NDVI、改进后归一化水体指数MNDWI和改进后新型水体指数MNWI组成的遥感目标图像增强指数数据集,并将红色赋予NDVI、绿色赋予MNWI,蓝色赋予MNDWI,得到可视化的遥感目标图像。
进一步地,所述对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,包括:
Figure BDA0001961881930000031
Figure BDA0001961881930000032
V=max
其中,(r,g,b)为各像素在RGB图像上的颜色向量值,并且经归一化处理为0到1之间的实数;max和min分别为r、g、b中的最大值和最小值;H为色调;S为饱和度;V为亮度。
进一步地,所述在转换后的颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,包括:
Figure BDA0001961881930000033
其中,D为色差距离,且D≥0;(Hi,Si,Vi)为HSV图像上第i个像素的色调、饱和度和亮度向量坐标;(Hj,Sj,Vj)为HSV图像中第j个水体训练样本的色调、饱和度和亮度向量坐标;(H0,S0,V0)为HSV图像中所有水体训练样本的色调、饱和度和亮度向量均值坐标。
进一步地,所述针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集,包括:采用极差法对水体遥感色差距离图像进行拉伸,得到拉伸后的水体遥感色差距离图像,对拉伸后的水体遥感色差距离图像,依据其直方图计算每个灰度值的频坡比系数,根据所述频坡比系数,构建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集。其中,频坡比系数的计算公式为:
Dslope(a)=(na+1-ni)/na+1×100
其中,Dslope(a)为拉伸后的水体遥感色差距离图像中灰度值等于a时的频坡比系数,na和na+1分别为拉伸后的水体遥感色差距离图像中灰度值等于a和a+1的像素个数。
进一步地,所述能同时适用于洪涝淹没区遥感智能检测的水体分类特征集U,包括:
U={Dcliff(k1),Dpeak(k2),Dvalley(k3),Dlowland(k4)};
Dcliff(k1)=Max(Dslope(b));
Dpeak(k2)=Max(nm/(m-k1));
Dvalley(k3)=Min(nu×(k2-u));
Dlowland(k4)=Min(nv×(k2-v)/Dslope(v));
其中,Dslope(b)为拉伸后的水体遥感色差距离图像中灰度值等于b时的频坡比系数,并且b≠1、b>aw、b<ap;aw和ap分别为拉伸后的水体遥感色差距离图像中的水体训练样本和植被训练样本的灰度值均值;k1、k2、k3、k4分别为Dcliff、Dpeak、Dvalley、Dlowland对应的灰度值;nm、nm-1、nm+1分别为拉伸后的水体遥感色差距离图像中灰度值等于m、m-1和m+1的像素个数,并且m>k1、nm>nm-1、nm>nm+1;nu为拉伸后的水体遥感色差距离图像中灰度值等于u的像素个数,并且u>1、u<k2;nv为拉伸后的水体遥感色差距离图像中灰度值等于v的像素个数,并且v>1、v<k2;Dslope(v)为拉伸后的水体遥感色差距离图像中灰度值等于v时的频坡比系数,并且Dslope(v)大于零。
进一步地,针对所述水体分类特征集U,利用机器学习算法,识别出包含洪涝淹没区在内的所有水体,包括:利用包含洪涝淹没区在内的水体和非水的背景地物在拉伸后的水体遥感色差距离图像中所有标记点的灰度值,构建训练数据集;在每一次迭代循环中,依次针对所述分类特征集U中的每个水体分类特征,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器;将各个弱分类器依其权重系数进行组合,得到强分类器;针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别。
进一步地,根据洪灾前、后的水体识别结果,采用地理空间叠置分析法,获取洪涝淹没区,并进行不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息的统计汇总。
第二方面,本发明的实施例提供了一种基于机器视觉检测的洪灾信息遥感智能采集装置,包括:
分类特征集获取模块,用于遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;
强分类器识别模块,用于对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,将所述弱分类器按照权重系数进行组合,构建强分类器,对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别。
灾情信息统计汇总模块,用于对洪灾前、后的水体识别结果之间的差异进行检测,获得洪涝淹没区,以及不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息。
第三方面,本发明的实施例提供了一种电子设备,包括:
至少一个处理器,以及与处理器通信连接的至少一个存储器,其中:
存储器存储有可被处理器执行的程序指令,处理器调用程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的基于机器视觉检测的洪灾信息遥感智能采集方法。
第四方面,本发明的实施例提供了一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的基于机器视觉检测的洪灾信息遥感智能采集方法。
本发明实施例提供的基于机器视觉检测的洪灾信息遥感智能采集方法及设备,可以在降低对高质量训练样本的依赖程度的前提下,对包含淹没区在内的各类水体目标进行精确有效的遥感识别,能够实现大范围洪涝灾情信息的遥感智能高效采集。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单的介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于机器视觉检测的洪灾信息遥感智能采集方法流程图;
图2为本发明实施例提供的洪水期间水体遥感色差距离图像的直方图示意图;
图3为本发明实施例提供的枯水期间水体遥感色差距离图像的直方图示意图;
图4为本发明实施例提供的平水期间水体遥感色差距离图像的直方图示意图;
图5为本发明实施例提供的基于机器视觉检测的洪灾信息遥感智能采集装置结构示意图;
图6为本发明实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。另外,本发明提供的各个实施例或单个实施例中的技术特征可以相互任意结合,以形成可行的技术方案,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时,应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
综合目前各类水体信息遥感提取方法的内在特征可知,要基于洪灾前后水体信息遥感监测结果的差异,实现洪涝淹没区信息的高精度遥感智能采集,需要完成的工作包括:对灾后包括淹没区在内的水域识别,必需适应洪涝灾情监测通常使用信息量巨大且多为中高空间分辨率的卫星遥感图像数据,以及洪涝淹没区分散式广域分布所带来的水体影像表现特征不统一的复杂状况,必需克服大范围洪灾监测时遥感图像处理的人工成本较高、解译效率低下、解译精度极大受限于操作人员的主观认知和先验知识的问题,要通过机器学习等智能方法,在不依赖高质量训练样本的基础上,自动获取目标对象(水体)的遥感化本征参数特征,进而实现包括洪涝淹没区在内的大范围水体信息遥感智能提取。
基于上述情况,本发明实施例提供了一种基于机器视觉检测的洪灾信息遥感智能采集方法,参见图1,该方法包括:
101、进行遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;
102、对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,根据所述弱分类器的权重系数,构建强分类器,针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,对包括洪涝淹没区在内的所有水体所在的类别进行识别。其中,通过弱分类器构建的强分类器可以采用Adaboost算法。
103、根据洪灾前、后的水体识别结果,采用地理空间叠置分析法,得到洪涝淹没区,并统计汇总受淹面积、分布范围、淹水时长和灾情时空变化信息。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述将遥感目标多特征表达可视化,包括:构建由归一化植被指数NDVI、改进后归一化水体指数MNDWI和改进后新型水体指数MNWI的遥感目标图像增强指数数据集,并将红色赋予NDVI、绿色赋予MNWI,蓝色赋予MNDWI,以实现遥感目标多特征表达可视化,得到可视化的遥感目标图像。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,包括:
Figure BDA0001961881930000081
Figure BDA0001961881930000082
V=max
其中,(r,g,b)为各像素在RGB图像上的颜色向量值,并且经归一化处理为0到1之间的实数;max和min分别为r、g、b中的最大值和最小值;H为色调;S为饱和度;V为亮度。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述在转换后的颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,包括:
Figure BDA0001961881930000083
其中,(Hi,Si,Vi)为HSV图像上第i个像素的色调、饱和度和亮度向量坐标;(Hj,Sj,Vj)为HSV图像中第j个水体训练样本点的色调、饱和度和亮度向量坐标;(H0,S0,V0)为HSV图像中所有水体训练样本点的色调、饱和度和亮度向量均值坐标;D为色差距离,且D≥0。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集,包括:采用极差法对水体遥感色差距离图像进行拉伸,得到拉伸后的水体遥感色差距离图像,对所述拉伸后的水体遥感色差距离图像,依据其直方图计算每个灰度值的频坡比系数,根据所述频坡比系数,构建用于水体遥感智能识别的分类特征集。其中,频坡比系数的计算公式如下:
Dslope(a)=(na+1-na)/na+1×100
其中,Dslope(a)为拉伸后的水体遥感色差距离图像中灰度值等于a时的频坡比系数,na和na+1分别为拉伸后的水体遥感色差距离图像中灰度值等于a和a+1的像素个数。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述能够同时适用于洪涝淹没区遥感智能检测的水体分类特征集,包括:
U={Dcliff(k1),Dpeak(k2),Dvalley(k3),Dlowland(k4)};
Dcliff(k1)=Max(Dslope(b));
Dpeak(k2)=Max(nm/(m-k1));
Dvalley(k3)=Min(nu×(k2-u));
Dlowland(k4)=Min(nv×(k2-v)/Dslope(v));
其中,Dslope(b)为拉伸后的水体遥感色差距离图像中灰度值等于b时的频坡比系数,并且b≠1、b>aw、b<ap;;aw和ap分别为所述拉伸后的水体遥感色差距离图像中的水体训练样本和植被训练样本的灰度值均值;Dslope为拉伸的水体遥感色差距离图像中每个灰度值的频坡比系数;k1、k2、k3、k4分别为Dcliff、Dpeak、Dvalley、Dlowland对应的灰度值;nm、nm-1、nm+1分别为拉伸后的水体遥感色差距离图像中灰度值等于m、m-1和m+1的像素个数,并且m>k1、nm>nm-1、nm>nm+1;nu为拉伸后的水体遥感色差距离图像中灰度值等于u的像素个数,并且u>1、u<k2;nv为拉伸后的水体遥感色差距离图像中灰度值等于v的像素个数,并且v>1、v<k2;Dslope(v)拉伸后的水体遥感色差距离图像中灰度值等于v时的频坡比系数,并且Dslope(v)大于零。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述对所述水体分类特征集,利用机器学习算法,识别出包含洪涝淹没区在内的所有水体信息,包括:利用包含洪涝淹没区在内的水体和非水的背景地物在拉伸后的水体遥感色差距离图像中所有标记点的灰度值,构建训练数据集;针对所述水体分类特征集U,在每一次迭代循环中,依次针对所述U中的每个水体分类特征,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器;将各个弱分类器依其权重系数进行组合,得到强分类器;针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出水体所在的类别。
在上述实施例的基础上,本发明实施例中提供的基于机器视觉检测的洪灾信息遥感智能采集方法,所述洪涝灾情信息的统计汇总,包括:根据洪灾前、后的水体识别结果,采用地理空间叠置分析法,获取洪涝淹没区,并进行受淹面积、分布范围、淹水时长和灾情时空变化信息的统计汇总。
本发明实施例提供的基于机器视觉检测的洪灾信息遥感智能采集方法,可以在降低对高质量训练样本的依赖程度的前提下,对包含淹没区在内的各类水体目标进行精确有效的遥感识别,能够实现大范围洪涝灾情信息的遥感智能高效采集。
为了更加清晰的阐述本发明的技术方案的本质,在上述实施例的基础上,拟提出一个整体的实施例,从整体上展现本发明技术方案的全貌。需要说明的是,该整体实施例仅仅是为了将本发明的技术本质进一步体现出来,并不是对本发明保护范围的限制,本领域技术人员在本发明各个实施例的基础上,通过组合技术特征,得到的任何满足本发明技术方案本质的组合型技术方案,只要能够实际实施,均在本专利的保护范围之内。该整体技术方案具体如下:
S1:本底样本库的构建
主要通过收集洪灾前、后的时序卫星遥感图像,并依据图像上是否存在水域进行标注,各注记点的类别归属只需作水、植被和其它类别的简单划分即可。其中,水注记点将被“一分为二”,形成水训练样本和水验证样本两类。除此之外,还可以从监测区域的土地利用和DEM(数字高程模型)等基础空间数据,采集由山地阴影、城市建设用地以及低植被覆盖(如裸地和翻耕地等)所构成的易混背景地物在遥感图像上的表现特征,以及它们的地理空间位置关系特征等。
S2:遥感目标多特征表达可视化
主要针对遥感目标图像多波段(通常是超过三波段)的特性,利用对水敏感波段,采用公式(1)构建由NDVI(归一化植被指数)、MNDWI(改进后归一化水体指数)和MNWI(改进后新型水体指数)组成的通用型水体遥感多特征增强指数数据集;然后,再根据多波段彩色合成图像相比单波段的灰度图像所含信息更丰富的特点,将NDVI、MNWI和MNDWI三个指数进行波段组合,并按照红色赋予NDVI、绿色赋予MNWI、蓝色赋予MNDWI的配色方案,生成能够强化包括洪涝淹没区在内的各类水体在图像上色彩表现的RGB水遥感专题图像。
Figure BDA0001961881930000111
公式(1)中,ρgreen、ρred和ρnir分别为图像中的绿光波段(0.525-0.600um)、红光波段(0.630-0.680um)和近红外波段(0.845-0.885um),ρsw1和ρsw2均为图像中的中红外波段,但波长分别为1.560-1.660um、2.100-2.300um。
由于NDVI、MNWI和MNDWI三个指数的原值相差较大,为便于计算机数据处理分析,采用公式(2)所示的极差法进行归一化拉伸处理,处理成0到1之间的实数。
Figure BDA0001961881930000112
S3:将可视化后的遥感目标图像进行颜色空间转换
主要针对基于图像颜色的机器视觉识别,可以简化目标物的区分和从场景中提取目标的过程,但是RGB颜色空间因为存在色彩均匀性极差、具有较大的不稳定性等缺陷,从而不利于计算机视觉检测,因此,对S2所产生的RGB水体遥感图像,采用公式(3)转换到具有较好视觉一致性的HSV颜色空间;
Figure BDA0001961881930000121
Figure BDA0001961881930000122
V=max
公式(3)中,(r,g,b)为各像素在RGB图像上的颜色向量值,并且是经过归一化处理后所获得的0到1之间的实数,max和min分别为r、g、b三个向量值中的最大值和最小值,H为色调,S为饱和度,V为亮度。
S4:色差距离图像的生成及其物理属性解析
利用已有的水体训练样本,采用公式(4)生成水体遥感色差距离图像,然后结合已有的本底样本库,对目标对象(水体)在洪灾前、后不同时期色差距离图像上的表现特征(也即像元灰度值分布特征)及其与非水的背景地物之间的差异性进行分析。
上述水体遥感色差距离图像的生成,是先分别求算灾前和灾后的水体训练样本的H、S、V向量均值,然后依据公式(4)进行洪灾前、后相应时期的色差距离计算。
Figure BDA0001961881930000123
公式(4)中,(Hi,Si,Vi)为HSV图像上第i个像素的色调、饱和度和亮度向量坐标;(Hj,Sj,Vj)为HSV图像中第j个水体训练样本的色调、饱和度和亮度向量坐标;(H0,S0,V0)为HSV图像中所有水体训练样本的色调、饱和度和亮度向量均值坐标;D为色差距离,且D≥0。
由于水体遥感色差距离图像中的像素值D是基于水体训练样本计算得到的,能够反映像素尺度上的“水隶属度”:其值越小,属于水的可能性越低,反之则属于非水的背景地物越高。因此,在灾前和灾后的水体遥感色差距离图像上,包含洪涝淹没区在内的目标对象(水)的D值都普遍低于非水的背景地物,并且易与水混淆的建设用地则普遍具有较高的D值,植被的D值则介于两者之间,由此形成了“D<D植被<D建设用地”这一独特的水体遥感色差距离图像,这为利用机器视觉检测技术识别包含洪涝淹没区在内的水体信息奠定了基础。
另外,鉴于地表覆盖多以植被为主,再加上洪水多发于夏季,此时植被生长旺盛,图像上植被的像素个数通常远远多于水和其他地物。因此,在水体遥感色差距离图像中,植被像素的频数会明显高于水体,从而导致水体遥感色差距离图像的直方图既具有独特的形态特征又具有明确的物理含义,具体可以参见图2、图3和图4(三幅图中的横坐标轴均表示灰度值、左纵坐标轴都表示水体遥感色差距离图像中各灰度值出现的频数,右纵坐标轴则都表示水体、植被和其它地物一共三类训练样本的各灰度值出现的频数)。同时,图2显示了洪水期水体遥感色差距离图像的直方图,并且在该图中水体分布的低值区和背景地物分布的高值区之间存在险峻的“峭壁(Dcliff,202)”;在邻近峭壁的右侧低值区,因为具有较大色差距离值(D)但像素个数较少的水体像素集聚而形成了“谷底和洼地(Dvalley和Dlowland,203)”;在邻近峭壁的左侧高值区,则因为植被像素个数较多而集聚形成了“险峰(Dpeak,201)”。图3和图4则分别显示了枯水期和平水期的水体遥感色差距离图像的直方图,在这两幅图中也同样示出了“险峰(Dpeak,301、401)”,“峭壁(Dcliff,302、402)”和“谷底和洼地(Dvalley和Dlowland,303、403)。对比图2、图3和图4还可以发现,图2和图4中的险峰(201、401)所对应的植被像素频数,都远远高于同时期的水体以及主要由建设用地和低植被覆盖地等构成的其它背景地物的像素频数,图3中的险峰301所对应的植被像素频数虽然略低于由建设用地和低植被覆盖地所构成的其它背景地物,但是仍然显著高于水体,同时在图2、图3和图4所示的水体与植被像素的分布区间均存在险峻的峭壁(Dcliff)。由此可见,采用本发明实施例中的水体遥感色差距离图像对水体进行识别的时候,对包括洪水期在内的各时期水体均具有明显的区分效果。
S5:目标对象(水体)分类特征智能检测
依据水遥感色差距离图像的形态特征,以及有着明确物理含义的特征点,进行水与背景地物之间的色差距离阈值(Y)的自动检测。不过,在洪灾前后以及不同遥感观测模式下,水与背景地物之间的色差距离(Y)并不相同,因此,要实现洪灾前后相应阈值Y的智能诊断,需通过对灾害前、后的色差专题图像直方图形态特征的机器学习分析,结合已有的本底样本库,剖析目标对象(水)在每个时期色差距离图像上的灰度(D值)分布特征及其与背景地物之间的差异性,然后可再采用Adaboost算法来确定相应的阈值Y。
不过,现有的机器学习Adaboost算法在阈值确定中,会因为训练样本的代表性不足而导致阈值诊断失灵现象,为抑制这一现象的产生,本发明在阈值Y的确定过程中,将充分利用地表覆盖多以植被为主,以及洪水多发于夏季,此时植被生长旺盛,图像上植被的像素个数通常远远多于水及其他地类的特性,以克服Adaboost算法对于高质量训练样本的依赖性。
另外,在本发明中,阈值Y并不是一个固定的数值,而是利用训练样本的Adaboost机器学习所构建的强分类器,对多特征空间下各判别法则非等权参与决策的结果;同时,阈值Y并不直接应用于色差图像的分割,而是将其作为后续的HSV图像自动分割后水体所在类别的判断依据。
具体的目标对象(水体)分类特征智能检测过程包括:水体遥感色差距离图像(D)的拉伸,依据拉伸后的水体遥感色差距离图像(SD图像)的直方图来计算各灰度值的频坡比系数(Dslope),识别SD图像的直方图中关键图形信息并构建Adaboost算法所需的水体分类特征集,以及进行多轮迭代训练弱分类器,并组合各个弱分类器,构造强分类器。
S51:利用极差法对色差距离图像(D)进行拉伸,得到灰度值介于1-255的SD图像,
Figure BDA0001961881930000141
式(5)中,Dmax、Dmin分别为水体遥感色差距离图像(D)的最大灰度值和最小灰度值,符号[]表示对结果取整。
S52:计算SD图像中每个灰度值的频坡比系数(Dslope),
Dslope(a)=(na+1-na)/na×100,i=1,2,…,255   (6)
式(6)中,Dslope(a)为SD图像中灰度值等于a时的频坡比系数,na和na+1分别SD图像中灰度值等于a和a+1的像素个数。
S53:寻找SD图像的直方图中关键图形信息,构建Adaboost算法所需的水体分类特征集,
利用公式(7)-公式(10),依次识别出SD图像中,位于目标对象(水体)与背景地物(植被)交界处的“峭壁Dcliff”、背景地物所属的高值区内邻近峭壁的“险峰Dpeak”,以及水体所属的低值区内邻近峭壁的“谷底Dvalley”和“洼地Dlowland”。
Dcliff(k1)=Max(Dslope(b))   (7)
式(7)中,Dcliff(k1)为SD图像中的最大频坡比系数,其对应的灰度值k1通常就是目标对象(水体)与背景地物(植被)之间的“峭壁”所在的位置;b不等于1,且b大于aw小于ap,aw和ap分别为已采集的水体训练样本的灰度值均值和植被训练样本的灰度值均值;
Dpeak(k2)=Max(nm/(m-k1)),m>k1,nm>nm-1,nm>nm+1   (8)
式(8)中,nm为SD图像中灰度值等于m的像素个数,Dpeak(k2)是SD图像中植被像素在邻近“峭壁”的灰度值k2处集聚而在SD图像的直方图上形成的“险峰”,通常具有最大的灰度值频数;
Dvalley(k3)=Min(nu×(k2-u)),1<u<k2   (9)
式(9)中,nu为SD图像中灰度值等于u的像素个数,Dvalley(k3)为SD图像中水体像素在邻近“峭壁”的像素值k3处集聚而在SD图像的直方图上形成的“谷底”,通常具有灰度值频数较小、到“险峰”的色差距离值也较小的特征;
Dlowland(k4)=Min(nv×(k2-v)/Dslope(v)),1<v<k2,Dslope(v)>0   (10)
(10)式中,nv是SD图像中灰度值等于v的像素个数,Dlowland(k4)是SD图像中水体像素在邻近“峭壁”的像素值k4处集聚而在SD图像的直方图上形成的“洼地”,不仅具有较小的灰度值频数和到“险峰”的较短的色差距离,还具有正的频坡比系数且数值较大。将上述结果组合到一起,生成Adaboost算法所需的水体分类特征集U
U={Dcliff(k1),Dpeak(k2),Dvalley(k3),Dlowland(k4)}   (11)
S54:采用已有的本底样本库,构造训练数据集
在已有的本底样本库中,各个训练样本的类别归属被分为三类:水、植被和其它地类,但最终的遥感识别结果只需对是否属于水体进行判别,也即只需建立Adaboost二分类规则即可,因此对每个训练样本按其原有的类别归属作二分法处理并进行赋值:1赋给水、-1赋给非水的背景地物(包含植被和其它地类)。据此构造训练数据集(S),
S={(x1,C1),(x2,C2),…,(xn,Cn)}   (12)
式(12)中,n为训练样本编号,xn为第n个训练样本在SD图像中的灰度值,Cn∈{1,-1}为第n个训练样本的类别归属。
由于训练数据集中每个样本具有相同的初始权值wi=1/n。因此,训练数据集的初始权值分布函数D0为:
D0=(w1,0,w2,0,…,wi,0,…,wn,0)=(1/n,1/n,…,1/n)   (13)
S55:进行多轮迭代,训练弱分类器
假设总迭代次数为T,在每一次迭代循环t(t=1,2,…,T)时,都依次针对水体分类特征集U中每个所选的特征,使用具有权值分布函数Dt的训练数据集进行学习,得到弱分类器函数ft(x),
ft(x):x→{-1,1}   (14)
计算ft(x)在训练数据集上的分类误差率εt(x),表示ft(x)中被误分类样本的权值之和,
Figure BDA0001961881930000161
其中,Ci为第i个训练样本的类别归属,Wi,t-1为训练样本x在经过t-1次迭代后的权重值;I(ft(Xi)≠Ci)为指示函数,当ft(Xi)≠Ci时输出1,否则输出0。
依据εt(x)的计算结果,选取当前误差率最低的弱分类器作为此次构建的基本分类器Gt(x),并计算其权重系数at(x),该系数表示基本分类器Gt(x)在最终的强分类器中的重要程度,
Figure BDA0001961881930000171
然后,更新训练样本的权值分布函数,得到Dt+1,用于下一轮迭代,
Dt+1=Dt(x)×exp(-at(x)×Ci×Gt(x))/Zt   (17)
其中,Zt为归一化系数,
Figure BDA0001961881930000172
S56:组合各个弱分类器,构造强分类器
将经过T次迭代而得到的各个弱分类器,根据其权重at(x)进行组合:
Figure BDA0001961881930000173
再通过符号函数sign,得到最终的强分类器Hfinal,因为该强分类器内含水体分类特征集U,所以它就相当于区分包含洪涝淹没区在内的水体与非水的背景地物之间的色差距离阈值Y,
Figure BDA0001961881930000174
S6:目标对象(水体)智能识别
先采用图像色彩聚类模式对由RGB转换而成的HSV图像进行自动分割,使得具有相同或相似颜色特征的像素在空间上集聚,从而得到具有不同色彩特征的cluster图层。
然后,针对cluster图层,采用水体训练样本的HSV向量均值(H0,S0,V0),采用公式(4)计算类别色差距离(记为D’),将D’代入公式(20)所示的Adaboost强分类器,即可从cluster图层中自动识别出包括洪涝淹没区在内的所有属于水的类别。所得结果可在土地利用和DEM等基础空间数据的支持下,进一步排除由山体阴影、城市建设用地以及裸地、茬地和翻耕地等易混背景地物带来的干扰。
最后,利用未参与色差图像生成的水体验证样本,对上述识别结果进行精度评价,若错误率高于5%,则返回S2,重新进行水体信息遥感多特征表达可视化,然后重复S3~S6,直到准确率达标为止。
S7:灾情信息统计汇总,
利用洪灾前后的水体信息遥感智能提取结果,采用空间叠置分析,识别出洪涝淹没区并统计不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息。
本发明各个实施例的实现基础是通过具有处理器功能的设备进行程序化的处理实现的。因此在工程实际中,可以将本发明各个实施例的技术方案及其功能封装成各种模块。基于这种现实情况,在上述各实施例的基础上,本发明的实施例提供了一种基于机器视觉检测的洪灾信息遥感智能采集装置,该装置用于执行上述方法实施例中的基于机器视觉检测的洪灾信息遥感智能采集方法。参见图5,该装置包括:
分类特征集获取模块501,用于遥感目标多特征表达可视化,对可视化后的遥感目标图像进行颜色空间转换,在转换后的颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;
强分类器识别模块502,用于对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,将所述弱分类器,按照权重系数进行组合,构建强分类器,针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,对包括洪涝淹没区在内的所有水体所在的类别进行智能识别。
灾情信息统计汇总模块503,用于对洪灾前、后的水体识别结果之间的差异进行检测,获得洪涝淹没区,以及不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息。
本发明实施例的方法是依托电子设备实现的,因此对相关的电子设备有必要做一下介绍。基于此目的,本发明的实施例提供了一种电子设备,如图6所示,该电子设备包括:至少一个处理器(processor)601、通信接口(Communications Interface)604、至少一个存储器(memory)602和通信总线603,其中,至少一个处理器601,通信接口604,至少一个存储器602通过通信总线603完成相互间的通信。至少一个处理器601可以调用至少一个存储器602中的逻辑指令,以执行如下方法:遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行颜色空间转换,在转换后的颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,将所述弱分类器按照权重系数进行组合,构建强分类器;针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别;通过对洪灾前、后的水体识别结果之间的差异进行检测,获得洪涝淹没区,以及不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息。此外,上述的至少一个存储器602中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。例如包括:遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行颜色空间转换,在转换后的颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的训练弱分类器,将所述弱分类器按照权重系数进行组合,构建强分类器;针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别;通过对洪灾前、后的水体识别结果之间的差异进行检测,获得洪涝淹没区,以及不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,包括:
进行遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换;
在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像;
针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;
针对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,根据所述弱分类器的权重系数,构建强分类器;
针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,对包括洪涝淹没区在内的所有水体所在的类别进行智能识别;
综合洪灾前、后的水体识别结果,采用地理空间叠置分析法,得到洪涝淹没区,并进行灾情信息的统计汇总。
2.根据权利要求1所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,所述遥感目标多特征表达可视化,包括:
构建由归一化植被指数NDVI、改进后归一化水体指数MNDWI和改进后新型水体指数MNWI组成的遥感目标图像增强指数数据集,并将红色赋予NDVI、绿色赋予MNWI,蓝色赋予MNDWI,以实现遥感目标多特征表达可视化,得到可视化的遥感目标图像。
3.根据权利要求2所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,包括:
其中,(r,g,b)为各像素在RGB图像上的颜色向量值,并且经归一化处理为0到1 之间的实数;max 和min分别为r、g、b中的最大值和最小值;H为色调;S为饱和度;V为亮度。
4.根据权利要求3所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,包括:
其中,(Hi,Si,Vi)为HSV图像上第i个像素的色调、饱和度和亮度向量坐标;(Hj,Sj,Vj)为HSV图像中第j个水体训练样本的色调、饱和度和亮度向量坐标;(H0,S0,V0)为HSV图像中所有水体训练样本的色调、饱和度和亮度向量均值坐标;D为色差距离,且D≥0。
5.根据权利要求4所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能识别的水体分类特征集,包括:
采用极差法对水体遥感色差距离图像进行拉伸,得到拉伸后的水体遥感色差距离图像;对拉伸后的水体遥感色差距离图像,依据其直方图计算每个灰度值的频坡比系数;利用所述频坡比系数,构建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;其中,频坡比系数的计算公式如下:
其中,为拉伸后的水体遥感色差距离图像中灰度值等于a时的频坡比系数,分别为拉伸后的水体遥感色差距离图像中灰度值等于a和a+1的像素个数。
6.根据权利要求5所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,所述能同时适用于洪涝淹没区遥感智能检测的水体分类特征集U,包括:
U={Dcliff(k1),Dpeak(k2),Dvalley(k3),Dlowland(k4)};
Dcliff(k1)=Max(Dslope(b));
Dpeak(k2)=Max(nm/(m-k1));
Dvalley(k3)=Min(nu×(k2-u));
Dlowland(k4)=Min(nv×(k2-v)/Dslope(v));
其中,为拉伸后的水体遥感色差距离图像中灰度值等于b时的频坡比系数,并且
aw和ap分别为拉伸后的水体遥感色差距离图像中水体训练样本和植被训练样本的灰度值均值;k1、k2、k3、k4分别为Dcliff、Dpeak、Dvalley、Dlowland对应的灰度值; nm、nm-1、nm+1分别为拉伸后的水体遥感色差距离图像中灰度值等于m、m-1和m+1的像素个数, 并且、nm>nm-1、nm>nm+1;nu为拉伸后的水体遥感色差距离图像中灰度值等于u的像素个数,并且;nv为拉伸后的水体遥感色差距离图像中灰度值等于v的像素个数,并且为拉伸后的水体遥感色差距离图像中灰度值等于v时的频坡比系数,并且大于零。
7.根据权利要求6所述的基于机器视觉检测的洪灾信息遥感智能采集方法,其特征在于,针对所述水体分类特征集,利用机器学习算法,进行洪涝淹没区的智能识别,以及灾情信息的统计汇总,包括:
利用包含洪涝淹没区在内的水体和非水的背景地物在拉伸后的水体遥感色差距离图像中所有标记点的灰度值,构建训练数据集;在每一次迭代循环中,依次针对所述分类特征集U中每个水体分类特征,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器;将各个弱分类器依其权重系数进行组合,得到强分类器;针对转换后的HSV图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别;根据洪灾前、后的水体识别结果,采用地理空间叠置分析法,获取洪涝淹没区,并进行受淹面积、分布范围、淹水时长和灾情时空变化信息的统计汇总。
8.一种基于机器视觉检测的洪灾信息遥感智能采集装置,其特征在于,包括:
分类特征集获取模块,用于遥感目标多特征表达可视化,对可视化后的遥感目标图像,进行RGB到HSV的颜色空间转换,在转换后的HSV颜色空间中,利用水体训练样本,创建水体遥感色差距离图像,针对所述水体遥感色差距离图像,创建能同时适用于洪涝淹没区遥感智能检测的水体分类特征集;
强分类器识别模块,用于对所述水体分类特征集,使用具有权值分布的训练数据集进行机器学习,得到具有不同权重系数的弱分类器,将所述弱分类器,按照权重系数进行组合,构建强分类器,针对HSV颜色空间中的图像色彩聚类结果,应用所述强分类器,识别出包括洪涝淹没区在内的所有水体所在的类别;
灾情信息统计汇总模块,用于对洪灾前、后的水体识别结果之间的差异进行检测,获得洪涝淹没区,并进行不同区域的受淹面积、分布范围、淹水时长和灾情时空变化信息的统计汇总。
9.一种基于机器视觉检测的洪灾信息遥感智能采集电子设备,其特征在于,包括:
至少一个处理器、至少一个存储器、通信接口和总线;其中,
所述处理器、存储器、通信接口通过所述总线完成相互间的通信;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令,以执行如权利要求1至7任一项所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7中任一项所述的方法。
CN201910086335.2A 2019-01-29 2019-01-29 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 Active CN109886146B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910086335.2A CN109886146B (zh) 2019-01-29 2019-01-29 基于机器视觉检测的洪灾信息遥感智能采集方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910086335.2A CN109886146B (zh) 2019-01-29 2019-01-29 基于机器视觉检测的洪灾信息遥感智能采集方法及设备

Publications (2)

Publication Number Publication Date
CN109886146A CN109886146A (zh) 2019-06-14
CN109886146B true CN109886146B (zh) 2023-04-18

Family

ID=66927228

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910086335.2A Active CN109886146B (zh) 2019-01-29 2019-01-29 基于机器视觉检测的洪灾信息遥感智能采集方法及设备

Country Status (1)

Country Link
CN (1) CN109886146B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275923B (zh) * 2020-01-22 2020-11-24 清华大学 施工现场的人机碰撞预警方法及系统
CN111626965B (zh) * 2020-06-04 2021-03-16 成都星时代宇航科技有限公司 遥感图像处理方法,装置,电子设备及存储介质
CN111931706B (zh) * 2020-09-16 2021-01-05 清华大学 施工现场的人机碰撞预警方法及系统
CN112836590B (zh) * 2021-01-13 2022-07-08 四川轻化工大学 洪涝灾害监测方法、装置、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101726731A (zh) * 2009-11-23 2010-06-09 中国科学院遥感应用研究所 洪涝灾害警戒水域遥感调查方法
US9390331B2 (en) * 2014-04-15 2016-07-12 Open Range Consulting System and method for assessing riparian habitats
CN108647454B (zh) * 2018-05-16 2019-07-30 中国水利水电科学研究院 基于水文模拟的流域洪涝灾情信息处理方法及系统

Also Published As

Publication number Publication date
CN109886146A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN109886146B (zh) 基于机器视觉检测的洪灾信息遥感智能采集方法及设备
CN112435221B (zh) 一种基于生成式对抗网络模型的图像异常检测方法
CN109325431B (zh) 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置
CN111797712B (zh) 基于多尺度特征融合网络的遥感影像云与云阴影检测方法
CN104966085A (zh) 一种基于多显著特征融合的遥感图像感兴趣区域检测方法
CN109376591B (zh) 深度学习特征与视觉特征联合训练的船只目标检测方法
Miao et al. Classification of farmland images based on color features
CN104992223A (zh) 基于深度学习的密集人数估计方法
CN110176005B (zh) 基于归一化指数和多尺度模型的遥感图像分割方法
CN112906550B (zh) 一种基于分水岭变换的静态手势识别方法
CN106960182A (zh) 一种基于多特征集成的行人再识别方法
CN115147746B (zh) 基于无人机遥感图像的盐碱地质识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN111369615B (zh) 一种基于多任务卷积神经网络的细胞核中心点检测方法
Ji et al. In-field automatic detection of maize tassels using computer vision
CN108846404A (zh) 一种基于相关约束图排序的图像显著性检测方法及装置
CN114241511B (zh) 一种弱监督行人检测方法、系统、介质、设备及处理终端
CN114926511A (zh) 一种基于自监督学习的高分辨率遥感影像变化检测方法
CN108734122B (zh) 一种基于自适应样本选择的高光谱城区水体检测方法
Ding et al. FCM image segmentation algorithm based on color space and spatial information
CN117789037A (zh) 作物生长期预测方法及装置
CN114120203A (zh) 基于改进YoloV4的田间小麦赤霉病发生程度评估方法
CN111882573A (zh) 一种基于高分辨率影像数据的耕地地块提取方法及系统
CN116416523A (zh) 一种基于机器学习的水稻生长阶段的识别系统和方法
Li et al. Image processing for crop/weed discrimination in fields with high weed pressure

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant