CN111898477A - 基于无人机新旧时相影像的变化建筑物快速检测方法 - Google Patents
基于无人机新旧时相影像的变化建筑物快速检测方法 Download PDFInfo
- Publication number
- CN111898477A CN111898477A CN202010667632.9A CN202010667632A CN111898477A CN 111898477 A CN111898477 A CN 111898477A CN 202010667632 A CN202010667632 A CN 202010667632A CN 111898477 A CN111898477 A CN 111898477A
- Authority
- CN
- China
- Prior art keywords
- time phase
- image
- phase image
- new
- old
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012937 correction Methods 0.000 claims abstract description 78
- 230000005855 radiation Effects 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 14
- 238000010276 construction Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 64
- 230000009466 transformation Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 8
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 7
- 230000008859 change Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- IUTDVGSJRKTQPM-UHFFFAOYSA-N [4-(1,3-benzothiazol-2-yl)phenyl]boronic acid Chemical compound C1=CC(B(O)O)=CC=C1C1=NC2=CC=CC=C2S1 IUTDVGSJRKTQPM-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于无人机新旧时相影像的变化建筑物快速检测方法,通过获取在当前时刻之前得到的旧时相影像和在当前时刻得到的新时相影像,基于卡尔曼滤波进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域,基于k‑d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域,实现对变化建筑物的快速检测,相应的检测过程具有较高的准确性。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于无人机新旧时相影像的变化建筑物快速检测方法。
背景技术
针对当前违章滥用土地搭建、扩建建筑物的问题,相关部门也采取了很多措施,全面监督,加大监管力度,通过各种各样的手段加强动态监管,以便及时发现建筑物的变化状况,提高工作效率,做到“及时发现、及时报告、及时制止、及时处理”。为了及时掌握土地变化状况,需对土地进行监测和管制。传统无人机土地监测需人工选取和布设大量控制点,对影像进行大面积拼接后来完成变化检测,耗时耗力。
发明内容
针对以上问题,本发明提出一种基于无人机新旧时相影像的变化建筑物快速检测方法。该方法首先构建卡尔曼滤波模型预测新时相影像中心点在大尺度旧时相影像中的位置来缩小检索范围,其次通过k-d tree索引实现新旧时相影像的精准匹配,接着对影像进行几何校正和相对辐射校正,最后基于深度学习、形态空间位置匹配等识别和判断可疑变化建筑物。
为实现本发明的目的,提供一种基于无人机新旧时相影像的变化建筑物快速检测方法,包括如下步骤:
S10,获取在当前时刻之前拍摄并拼接得到的旧时相影像和在当前时刻拍摄得到的新时相影像,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域;
S20,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域;
S30,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正;
S40,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域。
在一个实施例中,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域包括:
S11,根据t时刻得到的新时相影像在旧时相影像中的位置坐标(xt,yt)和预先构建的卡尔曼模型状态方程预测t+1时刻的点位置坐标(xt+1,yt+1);其中,t时刻为当前时刻的上个时刻,t+1时刻为当前时刻;
S12,将新时相影像的经纬度坐标经过投影直角坐标和影像坐标转换以后得到测量值Zt+1(x,y),根据t+1时刻的点位置坐标(xt+1,yt+1)和测量值Zt+1(x,y),统计两者高斯分布区域相交后交集内的值,得到校正优化后的预估点(x’t+1,y’t+1),将校正优化后的预估点(x’t+1,y’t+1)作为当前时刻的最优估值Xt+1|t+1;
S13,以最优估值Xt+1|t+1为中心,在旧时相影像中划定矩形区域作为新时相影像在旧时相影像中粗匹配后的区域并提取出来,以确定新时相影像在旧时相影像中的粗匹配影像区域。
在一个实施例中,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域包括:
S21,分别提取粗匹配影像区域与新时相影像的特征点,以特征点为叶子节点,建立空间k-d索引树,以通过特征点的二叉树向下查找找到距离目标特征点最近似的叶子节点中存储的特征点,搜寻的目标特征点为圆心,目标查询点到邻近节点所构成的半径区域内,找到存在的能够匹配的最邻近特征节点,得到匹配结果;
S22,根据匹配结果构建投影变换模型建立投影变换关系,基于投影变换模型将新时相影像投影映射到粗匹配影像区域中,将新时相影像投影映射到粗匹配影像区域的部分像素值置为255,粗匹配影像区域的其它部分像素值置为0,通过形态算子进行轮廓搜索,用外接矩形框包围像素值置为255的部分,并将外接矩形框映射回旧时相影像的粗匹配影像区域中的相同位置,从而提取新时相影像在大尺度旧影像中经过匹配后与之相对应的区域,得到新时相影像在旧时相影像中的时相对应区域。
在一个实施例中,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正包括:
S31,以时相对应区域作为参考影像,经过匹配特征点对的几何校正后的新时相影像作为待校正影像,将待校正影像从RGB空间转换为HSV空间,并分离V通道,对参考影像和待校正影像进行差值运算并且二值化,得到变化部分和未变化部分,根据目标不变性原则,将未变化部分的轮廓分别映射到参考影像和待校正影像中,以参考影像和待校正影像上不变的轮廓区域内所包含的点作为亮度通道V内的伪不变样本点;
S32,基于最小二乘拟合伪不变样本点,将伪不变样本点代入平差模型公式计算亮度校正系数k和偏移系数b,从而构建形成亮度校正模型yi=kxi+b;所述平差模型公式包括:(BTPB)X-BTPL=0;矩阵B中每一个元素的值为L矩阵中的每一个元素代表参考影像中像元亮度值yi,X是亮度校正系数k和偏移系数b构成的系数矩阵,P为单位权重矩阵,1≤i≤m,0≤p≤1,
S33,将求解后的亮度校正模型对待校正影像的亮度通道V进行校正,将校正后的亮度通道V与H通道、S通道重新合并后,再转化为RGB的影像,以实现影像间的相对辐射校正。
在一个实施例中,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域之前,还包括:
收集样本数据集并标签,基于mask-RCNN网络对样本数据集进行训练,得到用于新时相影像和旧时相影像中建筑物识别的识别模型,以利用所述识别模型预测并识别新时相影像和旧时相影像中的建筑物;所述样本数据集包括多个分辨率相同、含有多形态、多种类的建筑物的正射影相。
具体地,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域包括:
采用识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,所识别得到的建筑物所覆盖的地表区域生成了语义分割mask掩膜以及包含mask掩膜的目标检测的最小外接矩形框Rectb,分别统计新时相影像和旧时相影像上所识别的建筑物个数M和N,获取新时相影像和旧时相影像中的建筑物对象的重合度IOU,根据重合度IOU构建M×N矩阵,对M×N矩阵中的元素值设定运算操作,得到矩阵1-IOU,根据矩阵1-IOU中各个矩阵元素的取值确定疑为变化的建筑物区域。
具体地,根据矩阵1-IOU中各个元素的取值确定疑为变化的建筑物区域包括:
确定矩阵1-IOU中各个矩阵元素分别对应的建筑物元素,找到矩阵1-IOU中每行或每列中的最小值,以最小值元素为中心画十字,在除最小值元素对应的行和列之外的行或列中如果未有任何元素画十字,则判定未有任何元素画十字的行或列未能够匹配的建筑物元素,从而统计出能够匹配的建筑物元素和未匹配的建筑物元素,以根据未匹配的建筑物元素对比发现新增和拆建的建筑物;
在能够匹配到建筑物元素对应的行或列中,若新时相影像和旧时相影像对应位置上能够匹配的建筑物元素对应的矩阵元素取值小于重合度阈值Tiou,则判为建筑物未发生变化,否则判定建筑物发生变化。
上述基于无人机新旧时相影像的变化建筑物快速检测方法,通过获取在当前时刻之前拍摄并拼接得到的旧时相影像和在当前时刻拍摄得到的新时相影像,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域,实现对变化建筑物的快速检测,相应的检测过程具有较高的准确性。
附图说明
图1是一个实施例的基于无人机新旧时相影像的变化建筑物快速检测方法流程图;
图2是另一个实施例的基于无人机新旧时相影像的变化建筑物快速检测方法流程图;
图3是一个实施例的影像快速匹配的流程示意图;
图4是一个实施例的建筑物变化检测过程的说明示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参考图1所示,图1为一个实施例的基于无人机新旧时相影像的变化建筑物快速检测方法流程图,包括如下步骤:
S10,获取在当前时刻之前拍摄并拼接得到的旧时相影像和在当前时刻拍摄得到的新时相影像,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域。
上述旧时相影像为当前时刻之前拍摄并拼接得到的大尺度影像。上述步骤基于卡尔曼滤波完成新时相影相在大尺度旧时相影像中的粗匹配。
在一个实施例中,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域包括:
S11,根据t时刻得到的新时相影像在旧时相影像中的位置坐标(xt,yt)和预先构建的卡尔曼模型状态方程预测t+1时刻的点位置坐标(xt+1,yt+1);其中,t时刻为当前时刻的上个时刻,t+1时刻为当前时刻;
S12,将新时相影像的经纬度坐标(POS信息)经过投影直角坐标和影像坐标转换以后得到测量值Zt+1(x,y),根据t+1时刻的点位置坐标(xt+1,yt+1)和测量值Zt+1(x,y),统计两者高斯分布区域相交后交集内的值,得到校正优化后的预估点(x’t+1,y’t+1),将校正优化后的预估点(x’t+1,y’t+1)作为当前时刻的最优估值Xt+1|t+1;
S13,以最优估值Xt+1|t+1为中心,在旧时相影像中划定矩形区域作为新时相影像在旧时相影像中粗匹配后的区域并提取出来,以确定新时相影像在旧时相影像中的粗匹配影像区域。
本实施例可以基于无人机水平和垂直方向的速度、时间间隔等构建卡尔曼模型状态方程,以一步预测下一个时刻的点位置坐标(xt+1,yt+1)。将POS信息(新时相影像的经纬度坐标)经过投影直角坐标和影像坐标转换以后得到测量值Zt+1(x,y),基于步骤S11中得到的点位置坐标的状态预测值和坐标转换后的系统测量值,统计两者均发生的可能性的概率分布下的公共部分,即两者高斯分布区域相交后交集内的值,该值为校正优化后的预估点(x’t+1,y’t+1),即为当前时刻的最优估值Xt+1|t+1。以最优预估点为中心,在大尺度旧影像中划定一个小范围的矩形区域作为新时相影像在旧时相影像中粗匹配后的区域并提取出来,从而完成了新旧时相影像的粗匹配,在大尺度旧影像中粗匹配后的覆盖区域用于下一步中与新时相影像精准匹配。
S20,基于k-d索引树(k-d tree)对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域。
上述步骤基于k-d tree索引完成新旧时相影像的精准匹配。
在一个实施例中,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域包括:
S21,分别提取粗匹配影像区域与新时相影像的特征点,以特征点为叶子节点,建立空间k-d索引树,以通过特征点的二叉树向下查找找到距离目标特征点最近似的叶子节点中存储的特征点,搜寻的目标特征点为圆心,目标查询点到邻近节点所构成的半径区域内,找到存在的能够匹配的最邻近特征节点,得到匹配结果;
S22,根据匹配结果构建投影变换模型建立投影变换关系,基于投影变换模型将新时相影像投影映射到粗匹配影像区域中,将新时相影像投影映射到粗匹配影像区域的部分像素值置为255,粗匹配影像区域的其它部分像素值置为0,通过形态算子进行轮廓搜索,用外接矩形框包围像素值置为255的部分,并将外接矩形框映射回旧时相影像的粗匹配影像区域中的相同位置,从而提取新时相影像在大尺度旧影像中经过匹配后与之相对应的区域,得到新时相影像在旧时相影像中的时相对应区域。
上述k-d索引树为一种二叉树。
本实施例分别提取粗匹配后的影像区域与新时相影像的特征点,以特征点为叶子节点,建立空间k-d索引树,主要通过特征点的二叉树向下查找找到距离目标特征点最近似的叶子节点中存储的特征点,以搜寻的目标特征点为圆心,目标查询点到邻近节点所构成的半径区域内,找到存在的能够匹配的最邻近特征节点,从而完成了特征的精准匹配,根据匹配结果构建投影变换模型建立投影变换关系,基于投影变换模型将新时相影像投影映射到粗匹配后得到的小范围旧时相影像区域中,将投影映射到小范围影像区域中的部分置为255(白色),小范围影像区域其它部分置为0(黑色),通过形态算子进行轮廓搜索,搜索白色部分并用外接矩形框包围,并将外接矩形框映射回粗匹配后的小范围旧时相影像区域中的相同位置,从而提取新时相影像在大尺度旧影像中经过匹配后与之相对应的区域,用于和新时相影像进行对比和变化检测。
S30,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正。
上述步骤对影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正。
在一个实施例中,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正包括:
S31,以时相对应区域作为参考影像,经过匹配特征点对的几何校正后的新时相影像作为待校正影像,将待校正影像从RGB空间转换为HSV空间,并分离V通道,对参考影像和待校正影像进行差值运算并且二值化,得到变化部分和未变化部分,根据目标不变性原则,将未变化部分的轮廓分别映射到参考影像和待校正影像中,以参考影像和待校正影像上不变的轮廓区域内所包含的点作为亮度通道V内的伪不变样本点;
S32,基于最小二乘拟合伪不变样本点,将伪不变样本点代入平差模型公式计算亮度校正系数k和偏移系数b,从而构建形成亮度校正模型yi=kxi+b;所述平差模型公式包括:(BTPB)X-BTPL=0;矩阵B中每一个元素的值为L矩阵中的每一个元素代表参考影像中像元亮度值yi,X是亮度校正系数k和偏移系数b构成的系数矩阵,P为单位权重矩阵,1≤i≤m,0≤p≤1,
S33,将求解后的亮度校正模型对待校正影像的亮度通道V进行校正,将校正后的亮度通道V与H通道(色调通道)、S通道(饱和度通道)重新合并后,再转化为RGB的影像,以实现影像间的相对辐射校正。
在一个示例中,上述亮度通道V内的伪不变样本点可以记为:
(x1,y1),(x2,y2)L L(xn,yn)。
本实施例具体可以基于最小二乘拟合伪不变样本点,利用伪不变样本点:(x1,y1),(x2,y2)L L(xn,yn)代入平差模型公式计算亮度校正系数k和偏移系数b,从而构建形成亮度校正模型yi=kxi+b;平差模型公式包括:(BTPB)X-BTPL=0,式中,矩阵B中每一个元素的值为L矩阵中的每一个元素代表参考影像中像元亮度值yi,X是未知参数(亮度校正系数k和偏移系数b)构成的系数矩阵。P为单位权重矩阵。将求解后的亮度校正模型对待校正影像的亮度通道V进行校正,与H、S通道重新合并,并且再转化为RGB的影像。基于颜色平衡的方法调节新旧时相影像上的颜色。从而使得经过亮度模型构建校正和颜色平衡方法的颜色调节后,待校正影像(新时相影像)与参考影像(旧时相影像)间的亮度和颜色趋于一致,从而减少了因光照、大气等外界因素造成的辐射差异对后面新旧时相影像建筑物识别和变化检测的影响
S40,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域。
上述步骤基于深度学习的模型识别影像中的建筑物,根据识别的建筑物的形态、空间位置匹配关系检测和提取疑为变化的建筑物区域。
上述基于无人机新旧时相影像的变化建筑物快速检测方法,通过获取在当前时刻之前拍摄并拼接得到的旧时相影像和在当前时刻拍摄得到的新时相影像,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域,实现对变化建筑物的快速检测,相应的检测过程具有较高的准确性。
在一个实施例中,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域之前,还包括:
收集样本数据集并标签,基于mask-RCNN网络对样本数据集进行训练,得到用于新时相影像和旧时相影像中建筑物识别的识别模型,以利用所述识别模型预测并识别新时相影像和旧时相影像中的建筑物;所述样本数据集包括多个分辨率相同、含有多形态、多种类的建筑物的正射影相。
本实施例可以收集大量分辨率相同、含有不同形态、种类的建筑物的正射影相的样本数据集并标签,基于mask-RCNN网络对样本数据集进行训练,主要进行样本特征提取、池化候选区域、预测分类等,训练后得到用于新旧时相影像中建筑物识别的模型文件(识别模型),利用该模型文件预测和识别新旧时相影像中的建筑物。
具体地,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域包括:
采用识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,所识别得到的建筑物所覆盖的地表区域生成了语义分割mask掩膜以及包含mask掩膜的目标检测的最小外接矩形框Rectb,分别统计新时相影像和旧时相影像上所识别的建筑物个数M和N,获取新时相影像和旧时相影像中的建筑物对象的重合度IOU,根据重合度IOU构建M×N矩阵,对M×N矩阵中的元素值设定运算操作,得到矩阵1-IOU,根据矩阵1-IOU中各个矩阵元素的取值确定疑为变化的建筑物区域。
具体地,根据矩阵1-IOU中各个元素的取值确定疑为变化的建筑物区域包括:
确定矩阵1-IOU中各个矩阵元素分别对应的建筑物元素,找到矩阵1-IOU中每行或每列中的最小值,以最小值元素为中心画十字,在除最小值元素对应的行和列之外的行或列中如果未有任何元素画十字,则判定未有任何元素画十字的行或列未能够匹配的建筑物元素,从而统计出能够匹配的建筑物元素和未匹配的建筑物元素,以根据未匹配的建筑物元素对比发现新增和拆建的建筑物;
在能够匹配到建筑物元素对应的行或列中,若新时相影像和旧时相影像对应位置上能够匹配的建筑物元素对应的矩阵元素取值小于重合度阈值Tiou,则判为建筑物未发生变化,否则判定建筑物发生变化。
上述重合度阈值Tiou可以依据经验设定,既不能过大,也不能过小;若矩阵中新旧时相影像对应位置上能够匹配的建筑物元素对应的1-IOU元素取值小于Tiou,则判为建筑物未发生变化,否则判为面积范围(扩建或缩小)发生变化的建筑物。上述设定运算操作包括:用1分别减去对M×N矩阵中的各个元素,以得到矩阵1-IOU。
在一个示例中,上述重合度IOU的计算方式包括:
式中,Rectb旧和Rectb新分别为旧时相影像和新时相影像上的目标建筑物的外接矩形框。
本实施例对于识别后的建筑物基于形态重合度、空间位置关系匹配的方法检测变化建筑物。利用深度学习模型对新旧时相影像进行识别预测,经识别后,影像中建筑物所覆盖的地表区域生成了语义分割红色mask掩膜以及包含掩膜的目标检测的最小外接矩形框Rectb,既根据mask掩膜确定了分类后的建筑物的语义类别,又根据最小外接矩形框确定了建筑物在影像中的具体位置。分别统计新旧时相影像上所识别的建筑物个数M和N,新旧时相影像中的建筑物对象通过重合度IOU(0~1之间)计算进行匹配,将重合度计算结果作为判别建筑物是否变化的指标。计算结果构成M×N矩阵,对矩阵中元素值进行设定运算操作,即1-IOU,值越小说明匹配度越高。找到每行或每列中的最小值,以最小值元素为中心画十字,最小值元素对应的该行和该列中的元素不再考虑,最小值对应的元素所在的行或列表示能够匹配的建筑物元素。最后在剩余的行或列中如果未有任何元素画十字,则表示未能够匹配的建筑物元素,从而统计出能够匹配的建筑物元素和筛选出了未匹配的建筑物元素,主要是为了根据未匹配的建筑物元素对比发现新增和拆建的建筑物。在能够匹配的建筑物元素中,依据经验设定合理的重合度阈值Tiou(既不能过大,也不能过小)。因此,若矩阵中新旧时相影像对应位置上能够匹配的建筑物元素的1-IOU的值小于Tiou,则判为建筑物未发生变化,否则判为面积范围(扩建或缩小)发生变化的建筑物。
重合度IOU的计算过程包括:
式中,Rectb旧和Rectb新分别为旧时相影像和新时相影像上的目标建筑物的外接矩形框。
上述基于无人机新旧时相影像的变化建筑物快速检测方法具有如下有益效果:
1、建立了一种用于无人机新旧时相影像的变化建筑物快速发现的方法。
2、提出了一种基于卡尔曼滤波和k-d tree索引的快速搜索和匹配定位的方法。基于卡尔曼滤波模型预测新时相影像中心点在旧时相影像中的位置缩小检索范围,基于k-dtree索引的方式完成影像间的精准匹配和定位。在几何校正的基础上,通过亮度校正模型的构建和颜色一致性校正对新旧时相影相进行相对辐射校正。最终,基于深度学习的方法识别建筑物,基于建筑物形态匹配、空间位置格局关系等对建筑物变化情况进行检测。该方法实现了新旧时相影像的快速匹配定位,缩小了新旧时相影像匹配和检索的区域范围,减少了检索和匹配时间,提高了效率。同时,直接从建筑物出发,将模型识别后的建筑物进行匹配比较,排除了噪声等非建筑物因素的干扰,提高了变化检测的精度。
在一个实施例中,上述基于无人机新旧时相影像的变化建筑物快速检测方法也可以参考图2所示,包括:
步骤一,基于卡尔曼滤波完成新时相影相在大尺度旧时相影像中的粗匹配,具体包括:
(1.1)根据无人机平均速度V和航偏角α进行分解,构建无人机的水平和垂直方向的速度相邻ti-1和ti时刻新时相影像在旧时相影像中的位置坐标为(xt,yt)、(xt+1,yt+1),相邻时刻的影像间的采样时间间隔为△t。综合以上信息,构建卡尔曼状态向量同时,根据采样时间间隔构建卡尔曼状态转移矩阵A:
(1.2)基于以上要素分析,进行每个时刻的状态预测,得到每个时刻预测的新时相影像中心点在旧时相影像中的位置坐标,如式(3)。
式中,w为无人机在飞行过程中所包含的噪声。
(1.3)将POS信息(地理坐标位置的经纬度)作为测量值。基于坐标系之间的转换先将点的经纬度坐标转化为投影直角坐标系上的坐标,再转为影像坐标系中的坐标,得到新时相影像中心点在旧时相影像中的坐标测量值Zt+1(x,y)。经纬度坐标与投影坐标系以及投影坐标与影像坐标之间的转换如式(4)和式(5)。
式中:L为经度,B为纬度,为卯酉圈曲率半径,X0为赤道到某点的子午线弧长,l为计算点大地经度与投影带中央子午线经度之差为第一偏心率,a为旋转椭球长半轴,b为短半轴,η2=e′2cos2B,t=tanB。
式中,X和Y为平面直角坐标系上的坐标,x和y为影像坐标系上的坐标,pixelweight为水平方向上每个像素的大小,pixelheight为垂直方向上每个像素的大小。h为水平旋转参数,通常默认为0,v为垂直旋转参数,通常默认为0。X0为旧时相影像测区范围内左上角的投影直角横坐标,Y0为旧时相影像测区范围内左上角的投影直角纵坐标。
构建观测矩阵H为:
观测方程为:
Zt+1=HXt+1+Vt (7)
式中,Vt为系统噪声。
计算状态向量的协误差方差阵:
Pt+1|t=APt|tAT+Qt (8)
式中,Pt|t为状态向量Xt的协方差阵,Qt为噪声w的协方差阵。
计算滤波增益系数Kt+1:
Kt+1=Pt+1|tHT(HPt+1|tHT+Rt)-1 (9)
式中,Rt为Vt的协方差阵
根据预测值Xt+1和测量值Zt+1得到当前时刻的最优估值Xt+1|t+1,
Xt+1|t+1=AXt+Kt+1(Zt+1-HXt+1) (10)
(1.4)以当前预估点为中心,在大尺度旧影像中截取一个小范围的矩形区域,即为粗匹配后的覆盖区域范围,在大尺度旧影像中粗匹配后的覆盖区域用于下一步中与新时相影像精准匹配。重复以上步骤预测下一个时刻的点的位置。
步骤二,基于k-d tree索引完成新旧时相影像的精准匹配,具体包括:
(2.1)分别提取粗匹配后的影像区域与新时相影像的特征点,以特征点为叶子节点,建立空间k-d索引树(一种二叉树),主要通过特征点的二叉树查找找到距离目标特征点最近似的叶子节点中存储的特征点,以搜寻的目标特征点为圆心,目标查询点到邻近节点所构成的半径区域内,找到存在的能够匹配的最邻近特征节点,从而完成特征的精准匹配。
(2.2)根据匹配结果构建投影变换模型建立投影变换关系,基于投影变换模型将新时相影像投影映射到粗匹配后得到的小范围影像区域中,将投影映射到小范围影像区域中的部分置为255(白色),小范围影像区域其它部分置为0(黑色),搜索白色轮廓部分并用外接矩形框包围,并将外接矩形框映射回粗匹配后的小范围旧时相影像区域中的相同位置,从而提取新时相影像在大尺度旧影像中经过匹配后与之相对应的区域,用于和新时相影像进行对比和变化检测。
步骤三,对影像进行几何校正,基于辐射校正模型和颜色平衡方法进行影像间的相对辐射校正:
(3.1)基于匹配的特征点对进行配准,完成影像间的几何校正;
(3.2)以匹配后得到的旧时相影像区域作为参考影像,新时相影像(经过匹配特征点对的几何校正后)作为待校正影像,将新时相影像的RGB颜色空间转为HSV颜色空间,分离和提取V(亮度)通道。新旧时相影像间差值运算并且二值化,分为变化(白色)和未变化部分(黑色)。根据目标不变性原则,将未变化的轮廓部分映射到新旧时相影像中,新旧时相影像上不变的轮廓区域内所包含的点作为新旧时相影像上V通道内的伪不变样本点(x1,y1),(x2,y2)L L(xn,yn);
(3.3)统计匹配的同名特征样本点对的个数m。根据经过处理后的参考影像和待校正影像上匹配的同名特征样本点的像元亮度值的大小yi和xi(i为影像中第i个像元特征点)以及特征样本点对的个数m,构建矩阵Bm×2、X2×1和Lm×1,矩阵B中每一个元素的值为L矩阵中的每一个元素代表参考影像中像元亮度值yi,X是未知参数k和b构成的系数矩阵。根据这三个元素构成多项式方程BX=L。代入间接平差公式11进行求解系数阵,构建亮度校正模型。
(BTPB)X-BTPL=0 (11)
求解后的亮度校正模型对待校正影像的亮度通道V进行校正,与H、S通道重新合并,并且再转化为RGB的影像。
(3.4)设定合适的k×k传递窗口,实现影像中逐个局部区域颜色调节,计算颜色调节后的像素值tnew(i,j),从而达到两幅图颜色基本一致的效果,公式如下:
式中,t(i,j)是要用于颜色调节的原图像第i行、第j列像素值,μ和σ分别为均值和方差,k表示用于在像素(i,j)周围传送统计数据的窗口的长度,tnew(i,j)是经过颜色调节后的图像中第i行、第j列的像素值。
步骤四,基于深度学习的模型识别影像中的建筑物,根据识别的建筑物的形态、空间位置匹配关系检测和提取疑为变化的建筑物区域,具体包括:
(4.1)收集足够数量大小、分辨率相同、包含不同种类和形态的建筑物的正射影像的样本数据,数据集分为建筑物和非建筑物2类,标注建筑物外围轮廓,将标签数据保存输出为PascalVOC格式。修改预训练模型文件参数(类别名替换,训练路径、训练迭代次数、batch大小等等);
(4.2)基于mask-RCNN网络对标签后的数据集进行训练,主要进行样本特征提取、池化候选区域、预测分类等,输出得到训练后的模型文件。
(4.3)将训练后的模型对新旧时相影像图进行预测和识别,经识别后,影像中建筑物所覆盖的地表区域生成了语义分割mask掩膜以及目标检测的外接矩形框,框的左上角为建筑物标签命名“bl“和置信度的数值(属于建筑物类别的概率大小),既根据mask掩膜确定了分类后的建筑物的语义类别,又根据最小外接矩形框确定了建筑物在影像中的具体位置。
(4.4)将新旧时相影像中的建筑物进行重合度、位置格局关系匹配,计算匹配后的重合度IOU,将重合度计算结果作为判别建筑物是否变化的指标。重合度如式9所示。
以示意图3为例,旧时相影像中识别的建筑物a,b,c和新时相影像中识别的建筑物1,2进行匹配。
统计建筑物外接矩形框的个数,建立3×2的矩阵M:
该矩阵表示a去匹配1,a去匹配2,b去匹配1,b去匹配2,c去匹配1……矩阵中的每个元素表示旧影像与新影像中相应位置的矩形匹配重合度IOU,范围为0到1之间。
经过识别后每个矩形在影像中的位置坐标和面积大小都已确定,a和1位置关系不对应,计算的两者匹配重合度为0,无法匹配上。a与2的重合度也是0,因此矩阵的第一行都是0。同理,建筑物外接矩形框b去匹配建筑物1和2,与矩形框1重合,计算后的重合度为ioub1,与矩形框2不重合,计算结果为0。以此类推。形成M矩阵:
对矩阵中元素用1取反(设定运算操作),得到矩阵1-IOU。为了能够更直观看出对于变化建筑物的筛选统计,取反后对矩阵进行增广,构成行列数相等的3×3矩阵。重合度一般是越大越匹配,但在原本基础上用1取反后,矩阵中元素的值越小反而对应位置上的建筑物越匹配。
除了增广的0元素外,统计每行或每列中的最小值。第一列中最小值为1-ioub1,表示建筑物b与建筑物1匹配度最高,两者能够匹配。以1-ioub1为中心划十字丝。第二行和第一列上的元素不再考虑。
同理,在剩下的元素中,第二列中最小值为1-iouc2,表示建筑物c与建筑物2匹配上了。以1-iouc2为中心划十字丝。第三行第二列上的元素不再考虑。
剩下的第一行建筑物a未进行任何匹配,但是由于第一列和第二列已经被划去不再考虑,所以第一行只能与第三列的元素匹配,第三列实际不存在,所以建筑物a未匹配到任何对应元素,判为变化建筑物(建筑物新增或拆迁)。
在新旧时相影像中所有能够匹配的建筑物中,根据经验设定合理的重合度阈值Tiou(既不能过大,也不能过小)。通常而言,建筑物间重合度越大越匹配,但在原本基础上用1取反后,矩阵中元素的值越小对应位置上的建筑物反而越匹配。因此,若矩阵中新旧时相影像对应位置上能够匹配的建筑物元素的1-IOU元素的值小于Tiou,则判为建筑物未发生变化,否则面积范围发生了改变,判为变化建筑物(建筑物扩建或缩小)。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
需要说明的是,本申请实施例所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\第三”区分的对象在适当情况下可以互换,以使这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本申请实施例的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,包括如下步骤:
S10,获取在当前时刻之前拍摄并拼接得到的旧时相影像和在当前时刻拍摄得到的新时相影像,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域;
S20,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域;
S30,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正;
S40,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域。
2.根据权利要求1所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,基于卡尔曼滤波对新时相影像和旧时相影像进行粗匹配,以确定新时相影像在旧时相影像中的粗匹配影像区域包括:
S11,根据t时刻得到的新时相影像在旧时相影像中的位置坐标(xt,yt)和预先构建的卡尔曼模型状态方程预测t+1时刻的点位置坐标(xt+1,yt+1);其中,t时刻为当前时刻的上个时刻,t+1时刻为当前时刻;
S12,将新时相影像的经纬度坐标经过投影直角坐标和影像坐标转换以后得到测量值Zt+1(x,y),根据t+1时刻的点位置坐标(xt+1,yt+1)和测量值Zt+1(x,y),统计两者高斯分布区域相交后交集内的值,得到校正优化后的预估点(x’t+1,y’t+1),将校正优化后的预估点(x’t+1,y’t+1)作为当前时刻的最优估值Xt+1|t+1;
S13,以最优估值Xt+1|t+1为中心,在旧时相影像中划定矩形区域作为新时相影像在旧时相影像中粗匹配后的区域并提取出来,以确定新时相影像在旧时相影像中的粗匹配影像区域。
3.根据权利要求1所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,基于k-d索引树对所述粗匹配影像区域和所述新时相影像进行精准匹配,以得到新时相影像在旧时相影像中的时相对应区域包括:
S21,分别提取粗匹配影像区域与新时相影像的特征点,以特征点为叶子节点,建立空间k-d索引树,以通过特征点的二叉树向下查找找到距离目标特征点最近似的叶子节点中存储的特征点,搜寻的目标特征点为圆心,目标查询点到邻近节点所构成的半径区域内,找到存在的能够匹配的最邻近特征节点,得到匹配结果;
S22,根据匹配结果构建投影变换模型建立投影变换关系,基于投影变换模型将新时相影像投影映射到粗匹配影像区域中,将新时相影像投影映射到粗匹配影像区域的部分像素值置为255,粗匹配影像区域的其它部分像素值置为0,通过形态算子进行轮廓搜索,用外接矩形框包围像素值置为255的部分,并将外接矩形框映射回旧时相影像的粗匹配影像区域中的相同位置,从而提取新时相影像在大尺度旧影像中经过匹配后与之相对应的区域,得到新时相影像在旧时相影像中的时相对应区域。
4.根据权利要求1所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,以时相对应区域作为参考影像,对新时相影像进行几何校正,基于亮度校正模型构建和颜色平衡方法进行影像间的相对辐射校正包括:
S31,以时相对应区域作为参考影像,经过匹配特征点对的几何校正后的新时相影像作为待校正影像,将待校正影像从RGB空间转换为HSV空间,并分离V通道,对参考影像和待校正影像进行差值运算并且二值化,得到变化部分和未变化部分,根据目标不变性原则,将未变化部分的轮廓分别映射到参考影像和待校正影像中,以参考影像和待校正影像上不变的轮廓区域内所包含的点作为亮度通道V内的伪不变样本点;
S32,基于最小二乘拟合伪不变样本点,将伪不变样本点代入平差模型公式计算亮度校正系数k和偏移系数b,从而构建形成亮度校正模型yi=kxi+b;所述平差模型公式包括:(BTPB)X-BTPL=0;矩阵B中每一个元素的值为L矩阵中的每一个元素代表参考影像中像元亮度值yi,X是亮度校正系数k和偏移系数b构成的系数矩阵,P为单位权重矩阵,1≤i≤m,0≤p≤1,
S33,将求解后的亮度校正模型对待校正影像的亮度通道V进行校正,将校正后的亮度通道V与H通道、S通道重新合并后,再转化为RGB的影像,以实现影像间的相对辐射校正。
5.根据权利要求1所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域之前,还包括:
收集样本数据集并标签,基于mask-RCNN网络对样本数据集进行训练,得到用于新时相影像和旧时相影像中建筑物识别的识别模型,以利用所述识别模型预测并识别新时相影像和旧时相影像中的建筑物;所述样本数据集包括多个分辨率相同、含有多形态、多种类的建筑物的正射影相。
6.根据权利要求5所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,采用预先训练的识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,以确定疑为变化的建筑物区域包括:
采用识别模型分别对旧时相影像以及辐射校正后的新时相影像进行识别,所识别得到的建筑物所覆盖的地表区域生成了语义分割mask掩膜以及包含mask掩膜的目标检测的最小外接矩形框Rectb,分别统计新时相影像和旧时相影像上所识别的建筑物个数M和N,获取新时相影像和旧时相影像中的建筑物对象的重合度IOU,根据重合度IOU构建M×N矩阵,对M×N矩阵中的元素值设定运算操作,得到矩阵1-IOU,根据矩阵1-IOU中各个矩阵元素的取值确定疑为变化的建筑物区域。
7.根据权利要求6所述的基于无人机新旧时相影像的变化建筑物快速检测方法,其特征在于,根据矩阵1-IOU中各个元素的取值确定疑为变化的建筑物区域包括:
确定矩阵1-IOU中各个矩阵元素分别对应的建筑物元素,找到矩阵1-IOU中每行或每列中的最小值,以最小值元素为中心画十字,在除最小值元素对应的行和列之外的行或列中如果未有任何元素画十字,则判定未有任何元素画十字的行或列未能够匹配的建筑物元素,从而统计出能够匹配的建筑物元素和未匹配的建筑物元素,以根据未匹配的建筑物元素对比发现新增和拆建的建筑物;
在能够匹配到建筑物元素对应的行或列中,若新时相影像和旧时相影像对应位置上能够匹配的建筑物元素对应的矩阵元素取值小于重合度阈值Tiou,则判为建筑物未发生变化,否则判定建筑物发生变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010667632.9A CN111898477A (zh) | 2020-07-13 | 2020-07-13 | 基于无人机新旧时相影像的变化建筑物快速检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010667632.9A CN111898477A (zh) | 2020-07-13 | 2020-07-13 | 基于无人机新旧时相影像的变化建筑物快速检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898477A true CN111898477A (zh) | 2020-11-06 |
Family
ID=73192425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010667632.9A Pending CN111898477A (zh) | 2020-07-13 | 2020-07-13 | 基于无人机新旧时相影像的变化建筑物快速检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898477A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861732A (zh) * | 2021-02-10 | 2021-05-28 | 东北林业大学 | 一种生态环境脆弱区土地监测方法、系统及装置 |
CN113094527A (zh) * | 2021-04-25 | 2021-07-09 | 华中师范大学 | 广义云控制时空谱大数据库及遥感影像处理方法 |
CN113486973A (zh) * | 2021-07-20 | 2021-10-08 | 清华大学深圳国际研究生院 | 一种图像内容识别方法及应用 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485740A (zh) * | 2016-10-12 | 2017-03-08 | 武汉大学 | 一种结合稳定点和特征点的多时相sar图像配准方法 |
CN109670515A (zh) * | 2018-12-13 | 2019-04-23 | 南京工业大学 | 一种用于无人机影像中建筑物变化的检测方法及系统 |
-
2020
- 2020-07-13 CN CN202010667632.9A patent/CN111898477A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485740A (zh) * | 2016-10-12 | 2017-03-08 | 武汉大学 | 一种结合稳定点和特征点的多时相sar图像配准方法 |
CN109670515A (zh) * | 2018-12-13 | 2019-04-23 | 南京工业大学 | 一种用于无人机影像中建筑物变化的检测方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861732A (zh) * | 2021-02-10 | 2021-05-28 | 东北林业大学 | 一种生态环境脆弱区土地监测方法、系统及装置 |
CN112861732B (zh) * | 2021-02-10 | 2021-11-02 | 东北林业大学 | 一种生态环境脆弱区土地监测方法、系统及装置 |
CN113094527A (zh) * | 2021-04-25 | 2021-07-09 | 华中师范大学 | 广义云控制时空谱大数据库及遥感影像处理方法 |
CN113486973A (zh) * | 2021-07-20 | 2021-10-08 | 清华大学深圳国际研究生院 | 一种图像内容识别方法及应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020651B (zh) | 基于深度学习网络的车牌检测定位方法 | |
CN111898477A (zh) | 基于无人机新旧时相影像的变化建筑物快速检测方法 | |
CN108364010B (zh) | 一种车牌识别方法、装置、设备及计算机可读存储介质 | |
CN109271991B (zh) | 一种基于深度学习的车牌检测方法 | |
CN109255317B (zh) | 一种基于双网络的航拍图像差异检测方法 | |
CN110197157B (zh) | 一种基于历史裂纹数据的路面裂纹生长检测方法 | |
CN112164117A (zh) | 一种基于Kinect相机的V-SLAM位姿估算方法 | |
US11941878B2 (en) | Automated computer system and method of road network extraction from remote sensing images using vehicle motion detection to seed spectral classification | |
CN111060076A (zh) | 一种面向机场飞行区无人机巡检路径规划和异物探测方法 | |
WO2020093624A1 (zh) | 一种基于多尺度检测算法的天线下倾角测量方法 | |
CN111886600A (zh) | 一种用于图像的实例级别分割的设备和方法 | |
CN107862319B (zh) | 一种基于邻域投票的异源高分光学影像匹配误差剔除方法 | |
Weyler et al. | In-field phenotyping based on crop leaf and plant instance segmentation | |
Budvytis et al. | Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression | |
CN112819895A (zh) | 一种摄像机标定方法及装置 | |
CN107240112A (zh) | 一种复杂场景下个体x角点提取方法 | |
CN109492525B (zh) | 一种测量基站天线工程参数的方法 | |
CN110462634A (zh) | 标志检测视频分析法 | |
CN115713694A (zh) | 一种土地测绘信息管理方法 | |
CN113033385A (zh) | 一种基于深度学习的违章建筑遥感识别方法及系统 | |
Alvarado-Robles et al. | An approach for shadow detection in aerial images based on multi-channel statistics | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
US9953238B2 (en) | Image processing method and system for extracting distorted circular image elements | |
CN114332534A (zh) | 一种高光谱图像小样本分类方法 | |
CN114037650A (zh) | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |