CN114973028A - 一种航拍视频图像实时变化检测方法及系统 - Google Patents
一种航拍视频图像实时变化检测方法及系统 Download PDFInfo
- Publication number
- CN114973028A CN114973028A CN202210533735.5A CN202210533735A CN114973028A CN 114973028 A CN114973028 A CN 114973028A CN 202210533735 A CN202210533735 A CN 202210533735A CN 114973028 A CN114973028 A CN 114973028A
- Authority
- CN
- China
- Prior art keywords
- image
- video
- detection
- key frame
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 183
- 230000008859 change Effects 0.000 title claims abstract description 169
- 238000000034 method Methods 0.000 claims abstract description 71
- 230000009466 transformation Effects 0.000 claims abstract description 54
- 238000007781 pre-processing Methods 0.000 claims abstract description 33
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000012360 testing method Methods 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 14
- 230000001131 transforming effect Effects 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000009792 diffusion process Methods 0.000 claims description 9
- 238000005286 illumination Methods 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 12
- 238000012544 monitoring process Methods 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 17
- 230000000877 morphologic effect Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及视频监控数据处理技术领域,公开了一种航拍视频图像实时变化检测方法及系统,该检测方法,包括以下步骤:S1,视频数据预处理:对拍摄的参考视频和检测视频进行预处理;S2,全景参考图生成:将参考视频的图像拼接生成全景参考图;S3,配准:进行检测视频的图像帧与全景参考图的配准;S4,变化区域检测:对配准后的检测视频的图像帧和参考图像进行初始化变换区域提取,并修正初始变化图,生成最终准确度更高的变化图像。本发明解决了现有技术存在的难以实时、准确进行航拍视频变化检测等问题。
Description
技术领域
本发明涉及视频监控数据处理技术领域,具体是一种航拍视频图像实时变化检测方法及系统。
背景技术
变化检测解决的核心问题是通过发同一关注区域、不同时刻拍摄的两幅图像(将先拍摄的定义为参考图,后拍摄的定义为检测现图)之间的图像差异来发现地物或现象变化信息,它是实现静态图像和动态视频智能分析的有效手段。变化检测执行结果既可作为图像分析数据直接返回给用户,也可传送给更高层任务进行语义分析,如场景理解、目标检测、目标跟踪等。
变化检测最典型的应用领域是卫星遥感影像分析,它通过对多时相获取的覆盖同一地表区域的遥感影像及其它辅助数据进行处理,实现不同时段目标或现象状态变化的识别和分析,同时还能确定一段时间间隔内地物或现象的变化,并提供地物空间分布及其变化的定量和定性分析。根据图像数据处理的三个层次,遥感影像分析领域常用的变化检测可分为像素级变化检测、特征级变化检测和目标级变化检测。像素级变化检测是在图像配准/对齐基础上,对每个位置不同时相的灰度或色彩(RGB)像素值进行比较,并判断是否发生变化,进而检测出变化区域。像素级变化检测易受影像配准、辐射校正等因素的影响,但由于该类方法更大地保留了图像原有细节信息,因而是当前主流的变化检测方法。特征级变化检测需首先确定感兴趣的对象并提取其特征(如边缘、形状、轮廓、纹理等),然后对这些特征进行综合比较和分析,获取该对象的变化信息。通常,特征级变化检测会对特征进行关联处理,因而它对特征属性的判断具有更高的可信度和准确性,但它不是基于原始数据,在特征提取过程中不可避免地会出现信息丢失,难以提供细微变化信息。目标级变化检测是在图像理解和识别基础上,检测某些特定对象(如道路、房屋等)的变化信息,是一种基于目标模型的高层分析方法,该类方法最大的优点是能更好响应用户需求,但其不足之处在于目标提取的困难性。
近年来,各个领域对遥感影像数据获取的要求都越来越高,卫星遥感影像收集由于受到高度、分辨率、天气条件及重访周期的影响往往难以满足要求,常规航空拍摄也常受空域及气象等条件的制约,对于紧急任务要求难以胜任且成本高昂。伴随着无人机相关技术的成熟,基于无人机的低空航拍因其成本低,起降灵活,受气象条件影响小(可在云层下作业),已逐渐成为传统航空拍摄和卫星遥感获取图像信息的重要补充手段,在国家重大自然灾害应急、地理国情监测、土地管理和城市建设规划等领域得到越来越广泛的应用。特别地,在特定区域进行目标跟踪、目标搜索、地物状态监控等应用中,通常需要对该区域范围进行频繁、持续、精确的低空监视,小型无人机视频航拍由于拍摄成本低、具备低空拍摄能力、对小目标成像分辨率高等优点,能有效完成监视视频采集任务。但是,对于低空小型无人机采集视频的智能分析,特别是利用变化检测手段提取监视区地物或现象变化信息,目前缺乏行之有效的方法。
传统变化检测主要解决影像数据中较大尺度的变化信息,无法解决视频变化检测中存在的视频数据量大、视频单帧视野小、相邻帧覆盖区域重叠度高、小尺度变化信息、背景复杂等问题。视频是由一系列空间和时间连续的视频帧组成,而视频帧实质是一副静态影像,虽然静态影像变化检测已得到深入研究,但实时、准确的视频图像变化检测方法却很少见。
发明内容
为克服现有技术的不足,本发明提供了一种航拍视频图像实时变化检测方法及系统,解决现有技术存在的难以实时、准确进行航拍视频变化检测等问题。
本发明解决上述问题所采用的技术方案是:
一种航拍视频图像实时变化检测方法,包括以下步骤:
S1,视频数据预处理:对拍摄的参考视频和检测视频进行预处理;
S2,全景参考图生成:将参考视频的图像拼接生成全景参考图;
S3,配准:进行检测视频的图像帧与全景参考图的配准;
S4,变化区域检测:对配准后的检测视频的图像帧和参考图像进行初始化变换区域提取,并修正初始变化图,生成最终准确度更高的变化图像。
作为一种优选的技术方案,步骤S1中,预处理包括摄像机检校、视频关键帧提取和/或视频关键帧GPS插值。
作为一种优选的技术方案,步骤S1中,进行视频关键帧提取和/或视频关键帧GPS插值时,关键帧自动提取时间间隔为:
其中,
Y=H[cot(tan-1(2h/f)+θ)+cot(tan-1(2h/f)-θ)];
t表示自动提取关键帧时间间隔,Xn表示帧幅下宽,Y表示帧幅高,Dx表示在t时间间隔后摄像机在x方向上重叠度,Dy表示在t时间间隔后摄像机在y方向上重叠度,υ表示某时刻无人机速度,H表示某时刻无人机航高,ω表示摄像机传感器宽,h表示摄像机传感器高,f表示摄像机传感器焦距,θ表示摄像机倾斜拍摄时的拍摄方向与水平面夹角。
作为一种优选的技术方案,步骤S2包括以下步骤:
S21,A-KAZE特征点提取:首先,利用非线性扩散滤波和快速显式扩散FED算法构建图像金字塔;其次,在非线性尺度空间寻找经尺度归一化后的3×3邻域Hessian矩阵行列式极值,得到图像特征点坐标;再次,基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;最后,将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子M-LDB生成图像特征向量;
S22,特征点匹配:首先,利用海明距离定义两个A-KAZE特征描述符间的相似度;然后,利用双向k近邻分类KNN算法查找特征点的初始匹配点;最后,采用随机抽样一致算法RANSAC对匹配点对进行筛选,去除误匹配对;
S23,图像拼接和全景图生成:针对接收参考视频进行预处理,提取视频关键帧并记录每个关键帧GPS信息,将关键帧f2到关键帧fk逐一变换到全景图空间;设参考视频关键帧集合为K为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号;设定关键帧f1为全景图空间;选择具有适应平移、旋转、缩放功能的仿射变换模型M作为图像坐标变换矩阵,仿射变换参数为m0-m5,图像坐标变换表示为:
式中,(x,y)和(x',y')分别表示全景图像和待拼接图像中的像素点坐标。
作为一种优选的技术方案,步骤S23包括以下步骤:
S231,基于仿射变换模型M,将参考视频中第j帧图像到i帧图像的仿射变换模型定义为Mi,j。对于待拼接关键帧f2,提取关键帧f2和关键帧f1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集match2和match1,并采用最小二乘法得到关键帧f2到关键帧f1的图像变换矩阵M1,2;
S232,对于k>2的待拼接关键帧fk,提取关键帧fk和关键帧fk-1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集matchk和matchk-1,利用变换矩阵M1,k-1将关键帧fk-1中匹配点集matchk-1投影到全景图空间,得到关键帧帧fk-1在全景图空间下的匹配点集matchk-1',基于匹配点集matchk-1'和matchk,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵M1,k;
S233,利用图像变换矩阵M1,k和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,生成最终的全景图。
作为一种优选的技术方案,步骤S3包括以下步骤:
S31,基于GPS的检测帧快速粗定位:对接收检测视频进行预处理,提取要执行变化检测的图像帧及其GPS信息,通过将检测帧GPS信息与全景参考图中记录的各关键帧GPS信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;
S32,基于A-KAZE特征的精确配准:首先,通过步骤S2中A-KAZE特征点提取、A-KAZE特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小的图像区域T和图像区域R,其中,T和R分别作为步骤S4中变化检测输入的测试图像和参考图像。
作为一种优选的技术方案,步骤S32包括以下步骤:
S321,将参考图像R和测试图像T进行RGB图像到灰度图像的转换,得到对应灰度参考图Rgray和灰度测试图Tgray;
S322,基于灰度参考图Rgray和灰度测试图Tgray对应位置灰度值生成差异图像,利用差异值判断每个像素位置变化情况和大小为N×N的邻域窗口,以低通滤波方式分别计算灰度参考图Rgray到灰度检测图Tgray的差异图DR,灰度检测图Tgray到灰度参考图Rgray的差异图DT,其中,差异图DR和DT在(i,j)位置差异值的计算公式为:
其中,1≤i≤H,l≤j≤W,(i,j)表示像素位置,DR(i,j)表示DR在(i,j)位置的差异值,DT(i,j)表示DT在(i,j)位置的差异值,N表示邻域窗口大小,Δi表示位置坐标i在N邻域的偏移,Δj表示位置坐标j在N邻域的偏移;
然后,基于差异图像DR、差异图DT以及划分阈值δdiff,计算初始变化图像D,
其中,D(i,j)表示初始变化图像D中(i,j)位置的变化值,0表示该位置未变化,1表示该位置变化,δdiff∈[0,50],δdiff取值依据图像光照差异程度。
作为一种优选的技术方案,步骤S4中,基于RGB-LBP特征比对验证初始变化图像D中值为1的像素位置,对于初始变化图像D值为1的位置(i,j),利用RGB-LBP特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化。
作为一种优选的技术方案,步骤S4包括以下步骤:
S41,在参考图像R和检测图像T的3个颜色通道分别计算以位置(i,j)为中心,15×15邻域内每个点的8位二进制编码LBP特征,并将最终LBP特征按位置和通道进行串接,构成参考图像R和检测图像T在(i,j)位置的LBP特征SR(i,j)和ST(i,j);其中,任意位置LBP特征计算方法为:在以该位置为中心的3×3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;
S42,计算参考图像R和检测图像T在(i,j)位置的LBP特征SR和ST的海明距离dRT(i,j);
S43,基于海明距离判断像素位置(i,j)是否发生变化,判断方法为:如果海明距离dRT(i,j)满足dRT(i,j)>δh×|SR(i,j)|,则(i,j)位置发生变化,初始变化图像中D(i,j)值保持1不变;否则,(i,j)位置未发生变化,将初始变化图像中D(i,j)的值由1修改为0;其中,|SR|表示二进制特征串的长度,δh表示判断阈值。
一种航拍视频图像实时变化检测系统,基于所述的一种航拍视频图像实时变化检测方法,包括依次电相连的以下模块:
视频数据预处理模块:用以,对拍摄的参考视频和检测视频进行预处理;
全景参考图生成模块:用以,将参考视频的图像拼接生成全景参考图;
配准模块:用以,进行检测视频的图像帧与全景参考图的配准;
变化区域检测模块:用以,对配准后的检测视频的图像帧和参考图像进行初始化变换区域提取,并修正初始变化图,生成最终准确度更高的变化图像。
本发明相比于现有技术,具有以下有益效果:
(1)本发明检测速度快。本发明结合视频关键帧提取和基于图像拼接技术,以不同于传统逐帧处理的视频图像变化检测方法,将参考视频转换为参考全景图,这样不仅解决了单帧视野小、视频相邻帧覆盖区域重叠度高等问题,且保证在图像信息不丢失的前提下,极大减少视频图像变化检测中需处理图像帧的数目。在检测帧与全景参考图配准过程中,结合GPS粗定位和A-KAZE特征匹配技术,通过前者快速确定检测帧在全景参考图中的位置范围和后者实现检测帧和全景参考图的精确配准,相比传统基于尺度不变特征转换SIFT(Scale-invariant Feature Transform)特征匹配的图像配准方法,在配准速度和配准精度上均有明显提升。
(2)检测准确率高。本发明针对无人机低空航拍视频数据的特性,通过全景参考图生成、基于GPS粗定位和A-KAZE特征点匹配的层次图像配准,有效提高了待检测帧与全景参考的图配准精度(1个像素以内),减少了配准误差对变化检测准确率的影响。通过图像去噪、图像增强、低通滤波差异图像生成、基于RGB-LBP特征比较的变化信息检测、基于形态学处理和灰度直方图特征比较的变化信息验证等手段,去除了大量噪声、误检测和无关变化信息(如水面波纹、树叶舞动等),提高了变化检测的准确率。
附图说明
图1是本发明所述的一种航拍视频图像实时变化检测方法的步骤示意图;
图2是本发明所述的一种航拍视频图像实时变化检测方法的流程图;
图3是图2中参考视频生成全景图像流程图;
图4是图2中检测视频和全景图像变化检测(包括配准过程)的流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步的详细说明,但本发明的实施方式不限于此。
实施例1
如图1至图4所示,为实现上述目的,本发明采用以下技术方案,一种航拍视频图像实时变化检测方法,包括如下步骤:
(1)视频数据预处理:在视频数据采集过程中,对拍摄的参考视频和检测视频进行预处理,主要包括对摄像机的检校、视频关键帧提取和关键帧全球定位系统GPS(GlobalPositioning System)插值。
(2)参考视频拼接生成全景参考图:在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中的关键帧,并在相邻关键帧的重叠区域中提取出A-KAZE特征点;通过特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图。
(3)检测视频帧与全景参考图配准:在检测视频与全景参考图配准过程中,通过人工选定或自动提取方法找到检测视频中需要关注的帧;利用待检测帧和全参考景图GPS信息,快速实现检测帧在参考全景图中的粗定位;基于粗定位结果,利用图像A-KAZE特征点匹配方法进行检测帧与全景参考图的精确配准。
(4)变化区域检测:在执行变化检测过程中,对配准后两幅图像进行去噪、直方图均衡化操作,以去除噪声、光照和不相关变化的影响;通过低通滤波方式生成初始变化图像,有效去除生成变化图像视差和配准误差的影响;基于图像形态学处理、图像局部二进制模式RGB-LBP(RGB-Local Binary Pattern)特征比较和区域面积及灰度柱状图比较,对变化图中变化位置进行验证,修正初始变化图,生成最终准确度更高的变化图像。
优选的,对摄像机检校之前,确认摄像机的机械结构坚固稳定,利用室外检校场进行摄影机的几何标定,通过人工设定同名点,基于最小二乘平差理论,利用光束法区域网平差模型对获取的检校场数据和高精度控制点数据进行区域网空中三角测量,解求出所需的摄像机几何检校参数、像片内方位元素、径向畸变系数、切向畸变系数、电荷耦合器件CCD非正方形比例系数以及CCD非正交性的畸变系数。
优选的,在视频关键帧提取中,针对接收到的视频,基于无人机航迹数据,在给定重叠度推导自动提取关键帧时间间隔的公式,自动提取关键帧时间间隔推导出:
帧幅高:Y=H[cot(tan-1(2h/f)+θ)+cot(tan-1(2h/f)-θ)]
其中,H为某时刻无人机的航高(单位:m),ω、h、f分别为采用摄像机传感器的宽、高、焦距(单位:mm),θ为倾斜拍摄摄像机与水平面的夹角。
其中,H为某时刻t无人机航高,υ为速度,ω为摄像机传感器宽、h为高、f为焦距,θ倾斜拍摄摄像机与水平面夹角。
优选的,在视频关键帧GPS插值中,针对选取的关键帧,记录每个关键帧所对应的位置信息,该位置信息由无人机搭载的GPS导航仪提供,如果GPS信息不连续,利用牛顿插值法进行GPS插值,使GPS信息和提取的关键帧一一对应。
优选的,在A-KAZE特征点提取中,从两幅有重叠的相邻关键帧中分别提取A-KAZE图像特征,利用非线性扩散滤波和快速显式扩散FED算法构建图像金字塔;然后在非线性尺度空间寻找经尺度归一化后的3×3邻域Hessian矩阵行列式极值,得到图像特征点坐标;再基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;最后将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子M-LDB生成图像特征向量;在A-KAZE特征点匹配中,将两幅重叠关键帧中提取的特征点进行匹配,利用海明距离定义两个A-KAZE特征描述符间的相似度;然后,利用双向k近邻分类KNN算法查找特征点的初始匹配点;最后,采用随机抽样一致算法RANSAC对匹配点对进行筛选,去除误匹配对。
优选的,在图像拼接及全景图生成时,针对接收参考视频进行预处理,提取视频关键帧并记录每个关键帧GPS信息,参考视频关键帧集合为设定关键帧f1为全景图空间,将关键f2到关键帧fk逐一变换到全景图空间,选择具有适应平移、旋转、缩放功能的仿射变换模型M作为图像坐标变换矩阵,将图像坐标变换表示为:
其中,K为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号,(x,y)和(x',y')分别表示全景图像和待拼接图像中的像素点坐标,m0-m5为仿射变换参数。
优选的,基于仿射变换模型M,将参考视频中第j帧图像到i帧图像的仿射变换模型定义为Mi,j,在关键帧拼接过程中,首先,对于待拼接关键帧,提取关键帧f2和关键帧f1重叠区域A-KAZE特征点,计算多于3对的匹配点集match2和match1,采用最小二乘法得到帧f2到全景图空间帧f1的图像变换矩阵M1,2;然后,对于k>2的待拼接关键帧fk,提取关键帧fk和关键帧fk-1重叠区域A-KAZE特征点,计算出多于3对的匹配点集matchk和matchk-1,利用变换矩阵M1,k-1将关键帧fk-1中匹配点集matchk-1投影到全景图空间,得到关键帧帧fk-1在全景图空间下的匹配点集matchk-1',基于匹配点集matchk-1'和matchk,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵M1,k;最后,利用图像变换矩阵M1,k和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,生成最终的全景图。
优选的,检测帧与全参考景图配准包括基于GPS的快速粗定位和基于A-KAZE特征的精确配准,在基于GPS的检测帧快速粗定位时,对接收检测视频进行预处理,提取执行变化检测的图像帧及其GPS信息,将检测帧GPS信息与全景参考图中记录的各关键帧GPS信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;在基于A-KAZE特征的精确配准时,进行A-KAZE特征点提取、A-KAZE特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小的图像区域T和图像区域R,其中,T和R分别作为变化检测输入的测试图像和参考图像。
优选的,在变化检测执行过程中,首先将参考图R和测试图T进行RGB图像到灰度图像的转换,得到对应灰度参考图Rgray和灰度测试图Tgray;然后,基于灰度参考图Rgray和灰度测试图Tgray对应位置灰度值生成差异图像,利用差异值判断每个像素位置变化情况和大小为N×N的邻域窗口,以低通滤波方式分别计算灰度参考图Rgray到灰度检测图Tgray的差异图DR,灰度检测图Tgray到灰度参考图Rgray的差异图DT,其中,差异图DR和DT在(i,j)位置差异值的计算公式为:
其中,(i,j)表示像素位置,N表示邻域窗口大小,Δi表示位置坐标i在N邻域的偏移,Δj表示位置坐标j在N邻域的偏移。最后,基于差异图像DR、差异图DT以及划分阈值δdiff,计算初始变化图像D,D(i,j)表示变化图中(i,j)位置的变化值:
其中,0表示该位置未变化,1表示该位置变化,δdiff∈[0,50],取值依据图像光照差异程度。
优选的,基于RGB-LBP特征比对验证初始变化图像D中值为1的像素位置,对于初始变化图像D值为1的位置(i,j),利用RGB-LBP特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化;首先,在参考图R和检测图T的3个颜色通道分别计算以位置(i,j)为中心,15×15邻域内每个点的8位二进制编码LBP特征,并将最终LBP特征按位置和通道进行串接,构成参考图R和测试图T在(i,j)位置的LBP特征SR(i,j)和ST(i,j)。其中,任意位置LBP特征计算方法为:在以该位置为中心的3×3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;然后,计算参考图R和测试图T在(i,j)位置的LBP特征SR和ST的海明距离dRT(i,j);最后,基于海明距离判断像素位置(i,j)是否发生变化,判断方法为:如果海明距离dRT(i,j)满足dRT(i,j)>δh×|SR(i,j)|,则(i,j)位置发生变化,初始变化图像中D(i,j)值保持1不变,否则,(i,j)位置未发生变化,将初始变化图像中D(i,j)的值由1修改为0。其中,|SR|表示二进制特征串的长度,δh为判断阈值。
本发明涉及一种广泛应用于安全防范、智能交通、搜索救援等视频监控领域的航拍视频图像变化检测配准方法,尤其是应用于低空小型无人机智能视频监控领域的视频图像实时变化检测方法。
本发明以航拍视频图像变化检测应用为基础,尤其适合低空无人机短时间间隔(几十分钟或几个小时)内近下视拍摄的两段观测视频中,自动发现前后两段视频中地物或现象变化信息,主要包括人、车辆、建筑、公共设施等目标的消失、出现或部分损坏。
本发明相比于现有技术具有如下有益效果:
(1)检测速度快。本发明结合视频关键帧提取和基于图像拼接技术,以不同于传统逐帧处理的视频图像变化检测方法,将参考视频转换为参考全景图,这样不仅解决了单帧视野小、视频相邻帧覆盖区域重叠度高等问题,且保证在图像信息不丢失的前提下,极大减少视频图像变化检测中需处理图像帧的数目。在检测帧与全景参考图配准过程中,结合GPS粗定位和A-KAZE特征匹配技术,通过前者快速确定检测帧在全景参考图中的位置范围和后者实现检测帧和全景参考图的精确配准,相比传统基于尺度不变特征转换SIFT(Scale-invariant Feature Transform)特征匹配的图像配准方法,在配准速度和配准精度上均有明显提升。
(2)检测准确率高。本发明针对无人机低空航拍视频数据的特性,通过全景参考图生成、基于GPS粗定位和A-KAZE特征点匹配的层次图像配准,有效提高了待检测帧与全景参考的图配准精度(1个像素以内),减少了配准误差对变化检测准确率的影响。通过图像去噪、图像增强、低通滤波差异图像生成、基于RGB-LBP特征比较的变化信息检测、基于形态学处理和灰度直方图特征比较的变化信息验证等手段,去除了大量噪声、误检测和无关变化信息(如水面波纹、树叶舞动等),提高了变化检测的准确率。
本发明为了解决视频数据量大、视频单帧视野小、相邻帧覆盖区域重叠度高等问题,提出一种结合视频关键帧提取和图像拼接的全景参考图生成技术,在不丢失视频数据信息的前提下,快速实现了视频变化检测到图像变化检测的转换。为了提高对小尺度变化信息的检测率,减小复杂背景对检测结果的影响,基于低通滤波的初始变化图像生成方法,并利用两种不同特征比对方法对变化信息进行验证。此外,图像去噪、图像增强、形态学处理等手段在图像预处理和检测结果后处理过程中的应用也极大提高检测准确率和在复杂背景中的鲁棒性。
本发明克服了现有变化检测技术在航拍视频数据上应用存在的弊端,尤其适用于快速准确发现一定时间间隔内无人机平台拍摄两段视频中人、车辆、建筑、公共设施等目标状态变化情况,在场景监视、目标搜查等领域有着广泛的应用前景。
实施例2
如图1至图4所示,作为实施例1的进一步优化,本实施例包括以下技术特征:
根据本发明,(1)视频数据预处理:在视频数据采集过程中,对拍摄的参考视频和检测视频进行预处理,主要包括对摄像机的检校、视频关键帧提取和关键帧全球定位系统GPS(Global Positioning System)插值。
(2)参考视频拼接生成全景参考图:在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中的关键帧,并在相邻关键帧的重叠区域中提取出A-KAZE特征点;通过特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图。
(3)检测视频帧与全景参考图配准:在检测视频与全景参考图配准过程中,通过人工选定或自动提取方法找到检测视频中需要关注的帧;利用待检测帧和全参考景图GPS信息,快速实现检测帧在参考全景图中的粗定位;基于粗定位结果,利用图像A-KAZE特征检测算法中的特征点匹配方法进行检测帧与全景参考图的精确配准。KAZE是在非线性尺度空间中进行的一种新型的多尺度2D特征检测和描述算法。
(4)变化区域检测:在执行变化检测过程中,对配准后两幅图像进行去噪、直方图均衡化操作,以去除噪声、光照和不相关变化的影响;通过低通滤波方式生成初始变化图像,有效去除生成变化图像视差和配准误差的影响;基于图像形态学处理、图像局部二进制模式RGB-LBP(RGB-Local Binary Pattern)特征比较和区域面积及灰度柱状图比较,对变化图中变化位置进行验证,修正初始变化图,生成最终准确度更高的变化图像。
为实时、准确对无人机低空航拍视频图像进行变化检测,仍然采用视频数据预处理、参考视频拼接生成全景图、检测视频帧与全景参考图配准、变化区域检测四大步骤。在无人机视频数据预处理、参考视频拼接生成全景参考图像、检测视频帧与全景参考图配准和变化检测中,采用具体实施方式如下:。
(1)无人机视频数据预处理,主要包括摄像机检校、视频关键帧提取和GPS插值;
(2)参考视频拼接生成全景参考图。视频图像数据量大,相邻帧之间图像内容重复度高,且单帧图像覆盖范围有限,不宜作为变化检测参考图像,故需对参考视频提取关键帧,并基于关键帧相邻关系进行图像匹配,并映射到标准坐标空间生成变化检测所需要的全景图;
(3)检测航拍视频帧与全景参考图配准或对齐;变化检测的前提是将两幅包含相同区域的图像进行精确配准,对于视频变化检测,首先,通过人工选定或自动提取方法找到检测视频中需要处理的帧;然后,找到全景参考图像和待检测图像中相同的覆盖区域,并将两幅图像配准,由于全景图覆盖范围大,直接配准不能满足实时性要求,故利用GPS信息快速实现检测帧在全景参考图中的粗定位,最后基于图像特征点匹配方法进行检测帧与参考图的精确配准;
(4)航拍检测视频帧与参考视频全景图精确配准后,变化检测可自动发现相同覆盖区域前后两次拍摄中人、车辆、建筑、公共设施等目标的消失、出现、损坏等变化情况。本发明中变化检测方法首先利用去噪、直方图均衡化等手段去除噪声、光照和不相关变化的影响;其次,用低通滤波方式生成变化图,去除视差和配准误差的影响;再次,利用RGB-LBP特征比较方法,计算出每个位置的变化信息;最后,利用形态学操作、区域面积和灰度柱状图比对等手段对每个位置的变化信息进行验证,并输出最终变化图像。
在无人机视频数据预处理包括摄像机检校、视频关键帧提取和GPS插值中:
(a)摄像机检校。摄像机检校是后续工作的前提,在对摄像机检校之前,首先应确认摄像机的机械结构坚固稳定,不存在晃动,同时要保证其光学结构和电子结构同样可靠稳定;然后,利用室外检校场进行摄影机的几何标定,具体过程为:通过人工设定同名点,基于最小二乘平差理论,利用光束法区域网平差模型对获取的检校场数据和高精度控制点数据进行区域网空中三角测量,解求出所需的摄像机几何检校参数,即像片内方位元素、径向畸变系数、切向畸变系数、电荷耦合器件CCD(Charge Coupled Device)非正方形比例系数以及CCD非正交性的畸变系数。
(b)在视频关键帧提取及GPS插值中,针对接收到的视频,由于数据量大,且视频相邻帧信息重复率高,关键帧选取是视频变化检测的关键。基于无人机航迹数据,在给定重叠度下可推导自动提取关键帧时间间隔的公式。假设某时刻无人机航高H(单位:m),速度为υ(单位:m/s),采用摄像机传感器宽、高、焦距分别为ω、h、f(单位:mm)。考虑倾斜拍摄(摄像机与水平面夹角为θ,拍摄图像覆盖地面实际宽度呈现下窄上宽)影响,自动提取关键帧时间间隔推导如下:
帧幅高:Y=H[cot(tan-1(2h/f)+θ)+cot(tan-1(2h/f)-θ)]
此外,针对选取的关键帧,需记录每个关键帧所对应的位置信息,该位置信息由无人机搭载的GPS导航仪提供。如果GPS信息不连续,可利用牛顿插值法进行GPS插值,使得GPS信息和提取的关键帧一一对应。
参阅图2。参考视频拼接生成全景图包括A-KAZE特征点提取、特征点匹配、图像拼接和全景图生成:
(a)A-KAZE特征点提取。从两幅有重叠的相邻关键帧中分别提取A-KAZE图像特征,主要流程如下:首先,利用非线性扩散滤波和快速显式扩散FED(Fast ExplicitDiffusion)算法构建图像金字塔;其次,在非线性尺度空间寻找经尺度归一化后的3×3邻域Hessian矩阵行列式极值,得到图像特征点坐标;再次,基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;最后,将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子M-LDB(Modified-Local Difference Binary)生成图像特征向量;
(b)在A-KAZE特征点匹配中,将两幅重叠关键帧中提取的特征点进行匹配,主要流程如下:首先,利用海明距离定义两个A-KAZE特征描述符间的相似度;然后,利用双向k近邻分类KNN算法查找特征点的初始匹配点;最后,采用随机抽样一致算法RANSAC对匹配点对进行筛选,去除误匹配对;
为全景图空间,视频拼接就是要将关键f2到关键帧fk逐一变换到全景图空间。选择具有适应平移、旋转、缩放功能的仿射变换模型M作为图像坐标变换矩阵,仿射变换参数为m0-m5,图像坐标变换表示为:
式中(x,y)和(x',y')分别表示全景图像和待拼接图像中的像素点坐标。关键帧拼接具体流程如下:首先,对于待拼接关键帧f2,提取关键帧f2和关键帧f1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集match2和match1,并采用最小二乘法得到帧f2到帧f1(全景图空间)的图像变换矩阵M1,2;然后,对于k>2的待拼接关键帧fk,提取关键帧fk和关键帧fk-1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集matchk和matchk-1,利用变换矩阵M1,k-1将关键帧fk-1中匹配点集matchk-1投影到全景图空间,得到关键帧帧fk-1在全景图空间下的匹配点集matchk-1',基于匹配点集matchk-1'和matchk,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵M1,k;最后,利用图像变换矩阵M1,k和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,生成最终的全景图。
检测帧与全参考景图配准包括基于GPS的快速粗定位和基于A-KAZE特征的精确配准:
(a)基于GPS的检测帧快速粗定位。对接收检测视频进行预处理,提取要执行变化检测的图像帧(人工或自动)及其GPS信息,通过将检测帧GPS信息与全景参考图中记录的各关键帧GPS信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;
(b)基于A-KAZE特征的精确配准。首先,通过步骤(2)中A-KAZE特征点提取、A-KAZE特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小(宽为W,高为H)的图像区域T和图像区域R,其中,T和R分别作为步骤(4)中变化检测输入的测试图像和参考图像。
参阅图3。对输入的测试图像T和参考图像R,变化检测执行主要包括图像预处理、基于低通滤波的变化图生成、基于RGB-LBP特征的变化验证和检测结果后处理等步骤,具体实施方式如下:
(a)图像预处理。首先,为去除细节(如水面波纹、树叶舞动等)和噪声对变化检测结果的影响,需对参考图R和检测图T进行高斯滤波,利用一个2维高斯卷积核对图像模糊化,对于RGB图像,可分别对三个通道图像进行高斯滤波;然后,利用直方图均衡化方法使得参考图R和检测图T对比度增加,细节变得更加,同时可以减小两幅图像光照差异带来的影响;
(b)初始变化图像生成。在变化检测执行过程中,首先将参考图R和检测图T进行RGB图像到灰度图像的转换,得到对应灰度参考图Rgray和灰度测试图Tgray;然后,基于灰度参考图Rgray和灰度测试图Tgray对应位置灰度值生成差异图像,并利用差异值判断每个像素位置变化情况,具体流程为:①为了克服光照、噪声、视差及配准误差的影响,利用大小为N×N(N∈{7,9,11})邻域窗口,以低通滤波方式分别计算灰度参考图Rgray到灰度检测图Tgray的差异图DR,灰度检测图Tgray到灰度参考图Rgray的差异图DT,计算公式为:
其中,(i,j)表示像素位置,N表示邻域窗口大小,Δi表示位置坐标i在N邻域的偏移,Δj表示位置坐标j在N邻域的偏移。
②基于差异图像DR、差异图DT以及划分阈值δdiff,计算初始变化图像D,D(i,j)表示变化图中(i,j)位置的变化值:
其中,0表示该位置未变化,1表示该位置变化,δdiff∈[0,50],δdiff取值依据图像光照差异程度。
(c)基于RGB-LBP特征比对验证初始变化图像D中值为1的像素位置。对于初始变化图像D值为1的位置(i,j),利用RGB-LBP特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化,具体计算流程为:首先,在参考图R和检测图T的3个颜色通道分别计算以位置(i,j)为中心,15×15邻域内每个点的LBP特征(8位二进制编码),并将最终LBP特征按位置和通道进行串接,构成参考图R和测试图T在(i,j)位置的LBP特征SR(i,j)和ST(i,j)。任意位置LBP特征计算方法为:在以该位置为中心的3×3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;然后,计算参考图R和测试图T在(i,j)位置的LBP特征SR和ST的海明距离dRT(i,j);最后,基于海明距离判断像素位置(i,j)是否发生变化,判断方法为:如果海明距离dRT(i,j)满足dRT(i,j)>δh×|SR(i,j)|,则(i,j)位置发生变化,初始变化图像中D(i,j)值保持1不变,否则,(i,j)位置未发生变化,将初始变化图像中D(i,j)的值由1修改为0。其中,|SR|表示二进制特征串的长度,δh为判断阈值,一般取0.3;
(d)变化图像后处理。为了有效剔除误报,需对验证后变化图像进行后处理,操作流程如下:首先,利用形态学开运算去除孤立变化位置,并将验证后变化图D中对应区域设置为未变化;然后,计算每个变化区域的像素面积,根据图像分辨率和最小关注目标大小,确定最小变化区域面积δa,并将验证后变化图像D中面积小于δa的区域设置为未变化;最后,对验证后变化图像D中每个变化区域Ap,找到其最小外接矩形区域Bp,在灰度参考图Rgray和灰度测试图Tgray中提取Bp对应图像区域和并计算区域的灰度直方图特征和区域的灰度直方图特征和的距离计算方式如下:
为了方便显示,将变化图D中未变化位置像素值设为0(黑色),变化位置像素值设置为255(白色)。至此,无人机视频变化检测完成。
如上所述,可较好地实现本发明。
本说明书中所有实施例公开的所有特征,或隐含公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合和/或扩展、替换。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质,在本发明的精神和原则之内,对以上实施例所作的任何简单的修改、等同替换与改进等,均仍属于本发明技术方案的保护范围之内。
Claims (10)
1.一种航拍视频图像实时变化检测方法,其特征在于,包括以下步骤:
S1,视频数据预处理:对拍摄的参考视频和检测视频进行预处理;
S2,全景参考图生成:将参考视频的图像拼接生成全景参考图;
S3,配准:进行检测视频的图像帧与全景参考图的配准;
S4,变化区域检测:对配准后的检测视频的图像帧和参考图像进行初始化变换区域提取,并修正初始变化图,生成最终准确度更高的变化图像。
2.根据权利要求1所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S1中,预处理包括摄像机检校、视频关键帧提取和/或视频关键帧GPS插值。
4.根据权利要求1所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S2包括以下步骤:
S21,A-KAZE特征点提取:首先,利用非线性扩散滤波和快速显式扩散FED算法构建图像金字塔;其次,在非线性尺度空间寻找经尺度归一化后的3×3邻域Hessian矩阵行列式极值,得到图像特征点坐标;再次,基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;最后,将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子M-LDB生成图像特征向量;
S22,特征点匹配:首先,利用海明距离定义两个A-KAZE特征描述符间的相似度;然后,利用双向k近邻分类KNN算法查找特征点的初始匹配点;最后,采用随机抽样一致算法RANSAC对匹配点对进行筛选,去除误匹配对;
S23,图像拼接和全景图生成:针对接收参考视频进行预处理,提取视频关键帧并记录每个关键帧GPS信息,将关键帧f2到关键帧fk逐一变换到全景图空间;设参考视频关键帧集合为K为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号;设定关键帧f1为全景图空间;选择具有适应平移、旋转、缩放功能的仿射变换模型M作为图像坐标变换矩阵,仿射变换参数为m0-m5,图像坐标变换表示为:
式中,(x,y)和(x’,y’)分别表示全景图像和待拼接图像中的像素点坐标。
5.根据权利要求4所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S23包括以下步骤:
S231,基于仿射变换模型M,将参考视频中第j帧图像到i帧图像的仿射变换模型定义为Mi,j。对于待拼接关键帧f2,提取关键帧f2和关键帧f1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集match2和match1,并采用最小二乘法得到关键帧f2到关键帧f1的图像变换矩阵M1,2;
S232,对于k>2的待拼接关键帧fk,提取关键帧fk和关键帧fk-1重叠区域A-KAZE特征点,计算大于3对匹配点的匹配点集matchk和matchk-1,利用变换矩阵M1,k-1将关键帧fk-1中匹配点集matchk-1投影到全景图空间,得到关键帧帧fk-1在全景图空间下的匹配点集matchk-1’,基于匹配点集matchk-1'和matchk,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵M1,k;
S233,利用图像变换矩阵M1,k和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,生成最终的全景图。
6.根据权利要求5所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S3包括以下步骤:
S31,基于GPS的检测帧快速粗定位:对接收检测视频进行预处理,提取要执行变化检测的图像帧及其GPS信息,通过将检测帧GPS信息与全景参考图中记录的各关键帧GPS信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;
S32,基于A-KAZE特征的精确配准:首先,通过步骤S2中A-KAZE特征点提取、A-KAZE特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小的图像区域T和图像区域R,其中,T和R分别作为步骤S4中变化检测输入的测试图像和参考图像。
7.根据权利要求6所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S32包括以下步骤:
S321,将参考图像R和测试图像T进行RGB图像到灰度图像的转换,得到对应灰度参考图Rgray和灰度测试图Tgray;
S322,基于灰度参考图Rgray和灰度测试图Tgray对应位置灰度值生成差异图像,利用差异值判断每个像素位置变化情况和大小为N×N的邻域窗口,以低通滤波方式分别计算灰度参考图Rgray到灰度检测图Tgray的差异图DR,灰度检测图Tgray到灰度参考图Rgray的差异图DT,其中,差异图DR和DT在(i,j)位置差异值的计算公式为:
其中,1≤i≤H,1≤j≤W,(i,j)表示像素位置,DR(i,j)表示DR在(i,j)位置的差异值,DT(i,j)表示DT在(i,j)位置的差异值,N表示邻域窗口大小,Δi表示位置坐标i在N邻域的偏移,Δj表示位置坐标j在N邻域的偏移;
然后,基于差异图像DR、差异图DT以及划分阈值δdiff,计算初始变化图像D,
其中,D(i,j)表示初始变化图像D中(i,j)位置的变化值,0表示该位置未变化,1表示该位置变化,δdiff∈[0,50],δdiff取值依据图像光照差异程度。
8.根据权利要求7所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S4中,基于RGB-LBP特征比对验证初始变化图像D中值为1的像素位置,对于初始变化图像D值为1的位置(i,j),利用RGB-LBP特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化。
9.根据权利要求8所述的一种航拍视频图像实时变化检测方法,其特征在于,步骤S4包括以下步骤:
S41,在参考图像R和检测图像T的3个颜色通道分别计算以位置(i,j)为中心,15×15邻域内每个点的8位二进制编码LBP特征,并将最终LBP特征按位置和通道进行串接,构成参考图像R和检测图像T在(i,j)位置的LBP特征SR(i,j)和ST(i,j);其中,任意位置LBP特征计算方法为:在以该位置为中心的3×3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;
S42,计算参考图像R和检测图像T在(i,j)位置的LBP特征SR和ST的海明距离dRT(i,j);
S43,基于海明距离判断像素位置(i,j)是否发生变化,判断方法为:如果海明距离dRT(i,j)满足dRT(i,j)>δh×|SR(i,j)|,则(i,j)位置发生变化,初始变化图像中D(i,j)值保持1不变;否则,(i,j)位置未发生变化,将初始变化图像中D(i,j)的值由1修改为0;其中,|SR|表示二进制特征串的长度,δh表示判断阈值。
10.一种航拍视频图像实时变化检测系统,其特征在于,基于权利要求1至9任一项所述的一种航拍视频图像实时变化检测方法,包括依次电相连的以下模块:
视频数据预处理模块:用以,对拍摄的参考视频和检测视频进行预处理;
全景参考图生成模块:用以,将参考视频的图像拼接生成全景参考图;
配准模块:用以,进行检测视频的图像帧与全景参考图的配准;
变化区域检测模块:用以,对配准后的检测视频的图像帧和参考图像进行初始化变换区域提取,并修正初始变化图,生成最终准确度更高的变化图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210533735.5A CN114973028B (zh) | 2022-05-17 | 2022-05-17 | 一种航拍视频图像实时变化检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210533735.5A CN114973028B (zh) | 2022-05-17 | 2022-05-17 | 一种航拍视频图像实时变化检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114973028A true CN114973028A (zh) | 2022-08-30 |
CN114973028B CN114973028B (zh) | 2023-02-03 |
Family
ID=82982606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210533735.5A Active CN114973028B (zh) | 2022-05-17 | 2022-05-17 | 一种航拍视频图像实时变化检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114973028B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908509A (zh) * | 2023-01-06 | 2023-04-04 | 中国科学院空天信息创新研究院 | 基于航向恒定船舶的远海序列光学遥感影像配准方法 |
CN117692649A (zh) * | 2024-02-02 | 2024-03-12 | 广州中海电信有限公司 | 基于图像特征匹配的船舶远程监控视频高效传输方法 |
CN117808807A (zh) * | 2024-02-29 | 2024-04-02 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102201115A (zh) * | 2011-04-07 | 2011-09-28 | 湖南天幕智能科技有限公司 | 无人机航拍视频实时全景图拼接方法 |
CN104156693A (zh) * | 2014-07-15 | 2014-11-19 | 天津大学 | 一种基于多模态序列融合的动作识别方法 |
CN104680542A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 基于在线学习的遥感影像变化检测方法 |
CN106991695A (zh) * | 2017-03-27 | 2017-07-28 | 苏州希格玛科技有限公司 | 一种图像配准方法及装置 |
CN107146201A (zh) * | 2017-05-08 | 2017-09-08 | 重庆邮电大学 | 一种基于改进图像融合的图像拼接方法 |
WO2018025531A1 (ja) * | 2016-08-05 | 2018-02-08 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN108961162A (zh) * | 2018-03-12 | 2018-12-07 | 北京林业大学 | 一种无人机林区航拍图像拼接方法和系统 |
CN110660023A (zh) * | 2019-09-12 | 2020-01-07 | 中国测绘科学研究院 | 一种基于图像语义分割的视频拼接方法 |
CN111260542A (zh) * | 2020-01-17 | 2020-06-09 | 中国电子科技集团公司第十四研究所 | 一种基于子块配准的sar图像拼接方法 |
CN111369495A (zh) * | 2020-02-17 | 2020-07-03 | 珀乐(北京)信息科技有限公司 | 一种基于视频的全景图像的变化检测方法 |
CN111815579A (zh) * | 2020-06-24 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种图像变化检测方法、装置及计算机可读存储介质 |
CN112085659A (zh) * | 2020-09-11 | 2020-12-15 | 中德(珠海)人工智能研究院有限公司 | 一种基于球幕相机的全景拼接融合方法、系统及存储介质 |
-
2022
- 2022-05-17 CN CN202210533735.5A patent/CN114973028B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102201115A (zh) * | 2011-04-07 | 2011-09-28 | 湖南天幕智能科技有限公司 | 无人机航拍视频实时全景图拼接方法 |
CN104156693A (zh) * | 2014-07-15 | 2014-11-19 | 天津大学 | 一种基于多模态序列融合的动作识别方法 |
CN104680542A (zh) * | 2015-03-15 | 2015-06-03 | 西安电子科技大学 | 基于在线学习的遥感影像变化检测方法 |
WO2018025531A1 (ja) * | 2016-08-05 | 2018-02-08 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN106991695A (zh) * | 2017-03-27 | 2017-07-28 | 苏州希格玛科技有限公司 | 一种图像配准方法及装置 |
CN107146201A (zh) * | 2017-05-08 | 2017-09-08 | 重庆邮电大学 | 一种基于改进图像融合的图像拼接方法 |
CN108961162A (zh) * | 2018-03-12 | 2018-12-07 | 北京林业大学 | 一种无人机林区航拍图像拼接方法和系统 |
CN110660023A (zh) * | 2019-09-12 | 2020-01-07 | 中国测绘科学研究院 | 一种基于图像语义分割的视频拼接方法 |
CN111260542A (zh) * | 2020-01-17 | 2020-06-09 | 中国电子科技集团公司第十四研究所 | 一种基于子块配准的sar图像拼接方法 |
CN111369495A (zh) * | 2020-02-17 | 2020-07-03 | 珀乐(北京)信息科技有限公司 | 一种基于视频的全景图像的变化检测方法 |
CN111815579A (zh) * | 2020-06-24 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种图像变化检测方法、装置及计算机可读存储介质 |
CN112085659A (zh) * | 2020-09-11 | 2020-12-15 | 中德(珠海)人工智能研究院有限公司 | 一种基于球幕相机的全景拼接融合方法、系统及存储介质 |
Non-Patent Citations (4)
Title |
---|
DAYANANDA KUMAR N.C等: ""3D Point Cloud Registration using A-KAZE Features and Graph Optimization"", 《INTERNATIONAL CONFERENCE ON COMMUNICATION AND SIGNAL PROCESSING》 * |
吴含前等: ""一种改进的 A-KAZE 算法在图像配准中的应用"", 《东 南 大 学 学 报 ( 自 然 科 学 版 )》 * |
瞿中等: ""基于 A-KAZE特征的图像无缝拼接算法"", 《计算机工程与设计》 * |
郑晖等: ""一种近实时的无人机视频流拼接方法"", 《地 理 与 地 理 信 息 科 学》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115908509A (zh) * | 2023-01-06 | 2023-04-04 | 中国科学院空天信息创新研究院 | 基于航向恒定船舶的远海序列光学遥感影像配准方法 |
CN115908509B (zh) * | 2023-01-06 | 2023-05-12 | 中国科学院空天信息创新研究院 | 基于航向恒定船舶的远海序列光学遥感影像配准方法 |
CN117692649A (zh) * | 2024-02-02 | 2024-03-12 | 广州中海电信有限公司 | 基于图像特征匹配的船舶远程监控视频高效传输方法 |
CN117692649B (zh) * | 2024-02-02 | 2024-04-19 | 广州中海电信有限公司 | 基于图像特征匹配的船舶远程监控视频高效传输方法 |
CN117808807A (zh) * | 2024-02-29 | 2024-04-02 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
CN117808807B (zh) * | 2024-02-29 | 2024-05-14 | 中国人民解放军国防科技大学 | 光学卫星遥感图像实例级变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114973028B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115439424B (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN114973028B (zh) | 一种航拍视频图像实时变化检测方法及系统 | |
CN110660023B (zh) | 一种基于图像语义分割的视频拼接方法 | |
KR101105795B1 (ko) | 항공 화상의 자동 처리 | |
EP2375755B1 (en) | Apparatus for detecting direction of image pickup device and moving body comprising same | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
JP2002157576A (ja) | ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体 | |
CN113031041B (zh) | 一种基于天际线匹配的城市峡谷组合导航定位方法 | |
CN108320304A (zh) | 一种无人机航拍视频媒体的自动编辑方法与系统 | |
CN113160053B (zh) | 一种基于位姿信息的水下视频图像复原与拼接方法 | |
CN112016478B (zh) | 一种基于多光谱图像融合的复杂场景识别方法及系统 | |
CN112348775B (zh) | 基于车载环视的路面坑塘检测系统及方法 | |
US11972507B2 (en) | Orthophoto map generation method based on panoramic map | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
CN110210292A (zh) | 一种基于深度学习的目标识别方法 | |
Xiao et al. | Geo-spatial aerial video processing for scene understanding and object tracking | |
CN115240089A (zh) | 一种航空遥感图像的车辆检测方法 | |
CN109961043B (zh) | 一种基于无人机高分辨率影像的单木高度测量方法及系统 | |
CN115619623A (zh) | 一种基于移动最小二乘变换的平行鱼眼相机图像拼接方法 | |
CN112016558A (zh) | 一种基于图像质量的介质能见度识别方法 | |
CN116805234A (zh) | 一种基于激光雷达及相机融合的仓库物资管控方法 | |
CN115950435A (zh) | 无人机巡检影像的实时定位方法 | |
CN115035466A (zh) | 一种用于安全监视的红外全景雷达系统 | |
CN114120236A (zh) | 对低空目标进行识别定位的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |