CN111127318B - 一种机场环境下的全景图像拼接方法 - Google Patents
一种机场环境下的全景图像拼接方法 Download PDFInfo
- Publication number
- CN111127318B CN111127318B CN201911232738.XA CN201911232738A CN111127318B CN 111127318 B CN111127318 B CN 111127318B CN 201911232738 A CN201911232738 A CN 201911232738A CN 111127318 B CN111127318 B CN 111127318B
- Authority
- CN
- China
- Prior art keywords
- image
- images
- splicing
- adopting
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000011159 matrix material Substances 0.000 claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000003708 edge detection Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000012937 correction Methods 0.000 claims abstract description 8
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 230000007704 transition Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 21
- 238000005286 illumination Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 7
- 238000000265 homogenisation Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000007500 overflow downdraw method Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 claims description 2
- 238000013210 evaluation model Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 5
- 238000007781 pre-processing Methods 0.000 abstract description 4
- 238000009825 accumulation Methods 0.000 abstract description 2
- 230000004075 alteration Effects 0.000 abstract description 2
- 238000003384 imaging method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种机场环境下的全景图像拼接方法,首先对采集到的图像进行预处理;采用基于YUV空间的色差校正方法,实现多路相机间色彩一致性;将相机图像投影至柱平面上,对柱面投影后的图像采用特征点检测算法,实现对图像中特征点的检测;实现对相邻图像中的特征点对的粗略匹配;通过RANSAC算法剔除错误特征点对,计算出图像间准确的单应性矩阵,采用渐入渐出融合技术实现配准图像间的均匀过渡拼接;对全景图像采用Canny边缘检测,选取最长线段作为天际线位置,采用最小二乘法拟合出天际线圆滑曲线,消除因拼接造成的图像扭曲变形。采用分组迭代拼接的方法,消除多路图像拼接过程中误差的累积,提升拼接成功率与拼接效果。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种机场环境下的全景图像拼接方法。
背景技术
着国家民航产业的不断发展,机场数量不断增加,传统塔台在机场场面监控方面存在视场死角、场地占用、人员消耗、传统监控相机分辨率不足等诸多问题,能够一体化呈现机场场面实景的大视场甚至全景图像可以很好的解决这些问题。而随着图像领域技术的不断发展,各个领域对于图像分辨率的要求越来越高。专用特殊成像设备价格昂贵,且机场环境因各自环境及建筑的独特性,无法采用一种统一的成像设备实现场面视场无死角监视。全景图像拼接技术能够有效解决上述问题,且根据机场环境可制定能够最大程度无死角展现场面实景的摄像机组合方式及部署方式,可针对不同场景很好的实现机场场面全景的无死角覆盖,且能够解决传统成像设备无法同时兼顾视场角与分辨率的问题。
目前,全景图像拼接方法虽然已日趋完善和成熟,但是因拼接算法效果受图像内容影响较大,在处理机场等特殊场景时往往无法获得较好的拼接效果。此外,在图像采集过程中光照及颜色不均也会影响特征信息准确度而造成拼接成功率降低,而这种情况在实际场景中不可避免。因此,现有的拼接算法无法满足实际场景应用的需求。
发明内容
针对现有技术的不足,本发明公开了一种机场环境下的全景图像拼接方法,包括如下步骤:
步骤1,采用自适应Gamma(即灰度系数)校正(Poynton C.Digital Video andHDTV Algorithms and Interfaces[M].Morgan Kaufmann Publishers Inc.2003.)的色彩增强算法对输入图像进行色彩增强处理;
步骤2,采用基于YUV空间的局部均值统计方法对图像进行进一步的光照均衡处理;YUV是编译true-color颜色空间(color space)的种类,Y′UV,YUV,YCbCr,YPbPr等专有名词都可以称为YUV,彼此有重叠。“Y”表示明亮度(Luminance或Luma),也就是灰阶值,“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。
步骤3,在前述预处理步骤的基础上,采用柱面投影模型(Shengchang EricChen.QuickTime VR—An image-based approach to virtual environment navigation[A].In:Computer Graphics Proceedings of SIGGRAPH’95,Los Angeles California,1995,39-46.)将所有步骤2处理后的图像投影至柱平面上;
步骤4,对所有图像按照3个为一组进行分组,相邻组之间有一副图像完全相同,依次进行步骤5~步骤8的处理;
步骤5,对于柱面投影后的图像采用基于网格均匀化的shift-Tomasi(J.Shi和C.Tomasi提出的一种角点检测算法)(Shi J,Tomasi C.Good features to track.NewYork:Cornell University,1993.)与Sift(Scale-invariant feature transform,尺度不变特征变换)(David G.Lowe.Distinctive Image Features from Scale-InvariantKeypoints[J].International Journal of Computer Vision,2004,60(2):91-110.)相结合的特征点检测算法,对机场图像中建筑物及跑道特征点进行检测,并通过k-d(k维树的缩写)树的最临近搜索方法(张一,江刚武,狄亚南,et al.一种采用改进K-d树的无人机影像特征匹配搜索方法[J].测绘科学技术学报,2015(5):500-504.)对图像间检测出的特征点进行粗略匹配,得到匹配的特征点对;
步骤6,对步骤5得到的特征点对,采用RANSAC(Random Sample Consensus,随机抽样一致)算法(D.Capel,A.Zisserman.Automated mosaicing with super-resolutionzoom[C].Computer Vision and Pattern Recognition Conference on IEEE,Venice,1998:885-891)对其中的错误特征点对进行剔除,并利用剩余精确匹配的特征点对计算出图像间配准的单应性矩阵;
步骤7,利用得到的单应性矩阵对所有图像进行配准拼接处理,利用渐入渐出融合方法(袁杰.基于SIFT的图像配准与拼接技术研究[D].南京理工大学,2013.)处理图像间拼缝的均匀过渡;
步骤8,判断是否将所有分组均处理完成,若处理完成,则将拼接后生成的图像组作为输入重新从步骤3开始,直至只剩一个输出图像,此图像即为拼接生成的全景图像;
步骤9,对全景图像采用Canny(John F.Canny提出的一种边缘检测算子)边缘检测(Canny J.A Computational Approach to Edge Detection[J].IEEE Transactions onPattern Analysis and Machine Intelligence,2009,PAMI-8(6):679-698.),根据机场场景特征检测出天际线位置,采用最小二乘法(孙彦清.最小二乘法线性拟合应注意的两个问题[J].汉中师范学院学报:自然科学版,2002(3):58-61.)拟合出天际线圆滑曲线,将所述曲线映射为直线,并以此映射关系作为全图映射关系,消除因拼接造成的图像扭曲变形,生成最终拼接全景图。
步骤1包括:
步骤1-1,将输入图像的RGB通道分离(RGB即红绿蓝);
步骤1-2,分别计算RGB通道每个通道的均值mean;
步骤1-3,利用求得均值分别计算RGB通道每个通道的Gamma系数,计算公式如下:
其中gamma为当前通道的Gamma系数,mean为当前通道的像素均值;
步骤1-4,对通道中像素进行归一化,像素值转换为0~1之间的实数;
步骤1-5,对归一化后的像素值进行预补偿,计算公式如下:
步骤1-6,对预补偿后的像素值进行反归一化,反变换为0~255的整数值;
步骤1-7,将增强处理后的各通道重新合并,生成图像自适应Gamma校正色彩增强处理的结果。
步骤2包括:
步骤2-1,将步骤1经色彩增强后的图像由RGB空间转换至YUV空间(闫晶.基于VC++的YUV420与RGB24之间的视频图像格式相互转换[J].电脑与信息技术,2013(02):23-25+29.),取其中的亮度分量,计算转换公式如下:
Y=0.299R+0.587G+0.114B,
其中Y为YUV空间的亮度分量,R、G、B分别为RGB空间中的红色、绿色、蓝色分量;
步骤2-2,计算图像在亮度分量通道的均值meanY;
步骤2-3,将图像均等切割为block*block尺寸的小方块,分别计算每个小方块的均值,其中block为局部滑动窗口的宽度,一般取值为200~600;
步骤2-4,分别计算每个小方块均值与步骤2-2求得的整图均值间的差值,并将此差值作为RGB空间三个通道的差值,对图像进行差值处理,完成基于YUV空间的局部均值统计光照均衡方法。
步骤3包括:对所有经步骤1和步骤2预处理后的图像进行投影变换,将平面上的图像利用柱面投影映射至柱平面上,坐标映射公式如下:
步骤4包括:
步骤4-1,判断本步骤输入图像数量是否大于1,若等于1则作为最终全景图像输出,若大于1则继续执行步骤4-2;
步骤4-2,将所有经过步骤1~3处理后的图像按顺序3个为一组进行分组,每相邻两组间包含一张相同图片,若剩余不足3个则单独划分为一组;
步骤4-3,分别对每一组图像组执行步骤5~步骤8的处理。
步骤5包括:
步骤5-1,将输入图像按K*K的尺寸进行网格化,K为网格化后的小方块宽度,一般取值为图像高度的1/2~1/8;
步骤5-2,检测输入图像中前后1/3处宽度范围每个网格中的shift-Tomasi角点,检测出的特征点基本为直线拐角处、两条直线交叉处或边界处两个主要方向不同的事物上等的强角点,保证各网格中保留角点数量基本一致;
步骤5-3,使用具有旋转不变性、尺度缩放不变性、亮度变化不变性的Sift特征描述符对步骤5-2检测出的shift-Tomasi角点进行描述,得到描述该角点周围图像区域特征信息的一个128维的特征向量;
步骤5-4,通过k-d树的最临近搜索方法对相邻图像间检测出的特征点进行粗略匹配,得到粗略匹配的特征点对,匹配的特征点对具有相似的特征描述符,本方法中取k-d树中距离最近的前4000个特征点对。
步骤6包括:
步骤6-1,采用RANSAC算法通过迭代方式对所有粗略匹配的特征点对进行筛选,为待匹配图像对应的单应矩阵,h33为单应矩阵中第3行第3列的元素,通过整个矩阵能够将一个平面上的点投射到另一个平面上,匹配图像间点坐标满足如下公式:
其中(x,y)为匹配目标图像上的像素坐标,(x′i,y′i)为待匹配目标图像中的像素坐标;因单应矩阵中共有9个参数,所以首先随机选取其中8个特征点对,从而计算出对应的9个参数值,以此矩阵对所有的特征点对进行筛选,仅留下满足单应矩阵H中9个参数的精确匹配的特征点对;
步骤6-2,利用筛选后得到的精确匹配的特征点对估算出最优的配准单应矩阵,评价模型所用的代价函数计算公式如下:
其中(xi,yi)为匹配目标图像中的特征点位置,(x′i,y′i)为待匹配目标图像中的特征点位置,所述代价函数最小时对应的为最优配准单应矩阵。
步骤7包括:
步骤7-1,利用步骤6所得到的单应矩阵分别对待匹配图像进行透视变换;
步骤7-2,对于图像间重叠区域采用渐入渐出的融合方式进行融合处理,并将两幅图像拼接在一起,渐入渐出融合公式如下所示:
img=d*img1+(1-d)*img2,
其中,img是融合后的图像,img1和img2是待拼接的两幅图像,d为重叠区域中某一个像素点到边界的距离。
步骤8包括:判断是否完成了步骤4所划分的所有图像组的拼接,若未完成则继续完成未拼接的分组,若完成则判断所有图像组生成的全景图像个数,若个数大于1则将本轮生成的全景图作为输入重新回到步骤4,若个数等于1则结束拼接过程,输出的图像为拼接生成的全景图像。
步骤9包括:
步骤9-1,利用Canny边缘检测算法提取出全景图像的边缘图像,并采用膨胀的形态学处理(陆宗骐,朱煜.数学形态学腐蚀膨胀运算的快速算法[C]//第十三届全国图象图形学学术会议论文集.2006.)连接边缘断裂处并平滑边缘,将边缘处像素值置为255,其它区域像素值置为0;
步骤9-2,结合机场场面图像特征,用20*20的滑动窗由上而下遍历整幅图像,找到天际线位置,判定依据为由上而下第一个非零像素点数由0变为0.6窗口面积数量的滑动窗的中心点作为当列的天际线位置;
步骤9-3,采用最小二乘法对所有检测出的天际线位置坐标进行拟合,得到一条圆滑的天际线曲线,选取天际线曲线纵坐标的中位数计算出基准水平直线的方程,计算天际线曲线映射到基准水平直线的映射关系;
步骤9-4,将得到的映射关系应用到全景图像上,得到根据天际线形变消除全图扭曲变形后的最终拼接全景图像。
有益效果:本发明公开了一种机场环境下的全景图像拼接方法,解决了机场环境下多路相机图像的自动全景拼接问题。首先采用基于自适应Gamma校正的色彩增强算法和基于YUV空间的局部均值统计光照均衡方法对采集到的图像进行预处理,减少由于光照、色彩不均导致的特征信息检测错误或丢失;然后采用基于YUV空间的色差校正方法,实现多路相机间色彩一致性;接着采用柱面投影模型将相机图像投影至柱平面上,从而提升之后全景图像的展示视觉效果;然后针对机场环境中人造设施占主体的特征,对柱面投影后的图像采用基于网格均匀化的shift-Tomasi与Sift相结合的特征点检测算法,实现对图像中特征点的检测;再通过k-d树的最邻近搜索方法,实现对相邻图像中的特征点对的粗略匹配;接着通过RANSAC算法剔除错误特征点对,从而计算出图像间准确的单应性矩阵,并采用渐入渐出融合技术实现配准图像间的均匀过渡拼接;然后对全景图像采用Canny边缘检测,针对机场环境中天际线与跑道呈现明显分界且连续的特点,选取最长线段作为天际线位置,采用最小二乘法拟合出天际线圆滑曲线,将此曲线映射为直线,并以此映射关系作为全图映射关系,消除因拼接造成的图像扭曲变形。最后,采用分组迭代拼接的方法,有效消除多路图像拼接过程中误差的累积,有效提升拼接成功率与拼接效果。本发明在多个机场环境下进行了现场验证及性能测试,拼接成功率达95%以上,方法已于国内多个机场投入应用,充分验证了本发明的有效性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明的系统流程示意图。
图2是柱面投影坐标映射关系示意图。
图3是方格化特征点检测与粗略匹配方法流程示意图。
图4是9个相机经本方法拼接后得到的全景图像。
具体实施方式
本发明公开了一种机场环境下的全景图像拼接方法,如图1所示,包括以下步骤:
S1:色彩增强:
待拼接图像的清晰度是影响特征点检测准确性的重要因素之一。通过对待拼接图像进行自适应Gamma校正的色彩增强处理,可以提高图像清晰度,提升图像在雾天、雨雪天等光照不足环境下的色彩对比度,有效提升特征点检测的准确度。
S2:光照均衡:
待拼接图像的光照不均匀会导致特征信息误检测、特征信息模糊或丢失等问题,对后期全景拼接的准确度及全景图像的呈现效果产生较大影响。通过采用基于YUV空间的局部均值统计方法对待拼接图像进行光照均衡处理,可以有效去除因光照不均导致的特征点提取错误,同时能够很好的提升全景图像的观感体验,从而为提升后续提升全景拼接准确度提供保障。
S3:柱面投影:
将待拼接图像投影至柱平面,消除不同相机间图像采集过程因视角差异导致的像平面误差。通过对待拼接图像进行投影变换,有效提升图像配准的准确度,提升图像拼接精度,且柱面投影模型具有转换公式简单、视觉一致性较好、应用广泛的优点,而机场环境下的全景拼接通常为水平方向的全景,因此选择柱面投影作为投影模型。柱面投影的水平和垂直方向坐标映射关系如图2所示,坐标映射公式如下:
其中H、W为平面图像的高度及宽度,P(x,y)为输入图像上的像素横纵坐标点,Q(x′,y′)为柱面投影后对应位置图像的像素横纵坐标,θ为P(x,y)点与相机镜头光轴间的夹角,f为相机焦距,焦距可由拍摄现场估计得出:其中α为相机视场角。
S4:图像分组
对所有图像按照3个为一组进行分组。相邻组之间有一副图像完全相同,各组分别依次进行S5-S8的处理。首先判断输入图像数量是否大于1,若等于1则作为最终全景图像输出,若大于1则继续执行后续步骤;然后将所有经过图像预处理后的图像按顺序3个为一组进行分组,每相邻两组间包含一张相同图片,若剩余不足3个则单独划分为一组;接着分别对每一组图像组执行S5-S8的拼接处理。采用分组拼接的方式能够有效抑制拼接误差的累积叠加,从而极大提升拼接成功率及准确度。
S5:特征点检测与匹配
对各组图像采用基于网格均匀化的shift-Tomasi与Sift相结合的特征点检测算法,对机场图像中建筑物及跑道特征点进行检测,并通过k-d树的最临近搜索方法对图像间检测出的特征点进行粗略匹配,得到匹配的特征点对。角点检测方法与其它特征点检测方法相比更适合机场等人造场景的特征点描述,而各类角点检测方法中,shift-Tomasi方法能够更好的控制检测到的角点特性。Sift特征检测方法具有良好的旋转不变性、尺度不变性,然而存在计算量大的问题,因此仅选用Sift特征描述方法对检测出的shift-Tomasi特征点进行描述。此外,特征点分布不均匀会极大影响图像拼接的准确度,特征点较少的区域通常存在较大的匹配误差,因此采用网格均匀化的方法对图像特征点分布进行均衡,通过将图像网格化保证每个网格内都有一定数量的特征点分布,从而提升后续特征点匹配的准确度。
k-d树是一种二叉树,它是分割k维空间中数据的树形数据结构。因为实际的特征点数据都会呈现出簇状的聚类状态,通过使用k-d树的最邻近搜索方法可加速特征点匹配的过程,加快算法效率,进而得到一组特征点的匹配对,即特征点和最近邻目标特征点组成的特征点对的集合,实现特征点的粗略匹配。S5的整体结构流程如图3所示。
S6:因错误的匹配特征点对会导致单应矩阵的估计值误差变大,因此采用RANSANC(随机抽样一致性)算法对粗略匹配后的特征点对集合中的的错误特征点对进行剔除,并利用剩余精确匹配的特征点对计算出图像间配准的单应性矩阵。首先选取8个特征点对拟合出一个基础矩阵;然后利用该矩阵计算出所有满足这个模型的特征点及代价函数;重复上述步骤直至找到代价函数最小时保留下的特征点对,此时的特征点对即为精确匹配的特征点对,对应的矩阵即为最优单应矩阵。
计算代价函数的公式如下:
S7:利用得到的单应性矩阵对各图像依次进行配准拼接处理,利用渐入渐出融合方法处理图像间拼缝的均匀过渡。渐入渐出融合方法原理简单,计算量小,能够在有效消除拼缝的同时满足算法的实时性要求。
S8:判断是否完成了S4所划分的所有图像组的拼接,若未完成继续完成未拼接的分组,若完成则判断所有图像组生成的全景图像个数,若个数大于1则将本轮生成的全景图作为输入重新回到步骤4,若个数等于1则结束拼接过程,输出的图像为拼接生成的全景图像。
S9:全景图像去扭曲
因为Canny边缘检测算法具有较强的抗噪声能力,且采用双阈值策略分别检测强边缘和弱边缘,能够很好的检测出机场场景下的边缘线条,因此对全景图像采用Canny边缘检测,并对边缘图像采用膨胀的形态学处理连接边缘断裂处并平滑边缘;然后根据机场场景特征检测出天际线位置,结合机场场面图像特征,用20*20的滑动窗由上而下遍历整幅图像,找到天际线位置,判定依据为由上而下第一个非零像素点数由0变为0.6窗口面积数量的滑动窗的中心点作为当列的天际线位置;最后采用最小二乘法拟合出天际线圆滑曲线,将此曲线映射为直线,并以此映射关系作为全图映射关系,消除因拼接造成的图像扭曲变形,生成最终拼接全景图,9个相机经本方法处理拼接得到的全景图如图4所示。
本发明提供了一种机场环境下的全景图像拼接方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (10)
1.一种机场环境下的全景图像拼接方法,其特征在于,包括如下步骤:
步骤1,采用自适应Gamma校正的色彩增强算法对输入图像进行色彩增强处理;
步骤2,采用基于YUV空间的局部均值统计方法对图像进行进一步的光照均衡处理;
步骤3,采用柱面投影模型将所有步骤2处理后的图像投影至柱平面上;
步骤4,对所有图像按照3个为一组进行分组,相邻组之间有一副图像完全相同,依次进行步骤5~步骤8的处理;
步骤5,对于柱面投影后的图像采用基于网格均匀化的shift-Tomasi与Sift相结合的特征点检测算法,对机场图像中建筑物及跑道特征点进行检测,并通过k-d树的最临近搜索方法对图像间检测出的特征点进行粗略匹配,得到匹配的特征点对;
步骤6,对步骤5得到的特征点对,采用RANSAC算法对其中的错误特征点对进行剔除,并利用剩余精确匹配的特征点对计算出图像间配准的单应性矩阵;
步骤7,利用得到的单应性矩阵对所有图像进行配准拼接处理,利用渐入渐出融合方法处理图像间拼缝的均匀过渡;
步骤8,判断是否将所有分组均处理完成,若处理完成,则将拼接后生成的图像组作为输入重新从步骤3开始,直至只剩一个输出图像,此图像即为拼接生成的全景图像;
步骤9,对全景图像采用Canny边缘检测,根据机场场景特征检测出天际线位置,采用最小二乘法拟合出天际线圆滑曲线,将所述曲线映射为直线,并以此映射关系作为全图映射关系,消除因拼接造成的图像扭曲变形,生成最终拼接全景图。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:
步骤1-1,将输入图像的RGB通道分离;
步骤1-2,分别计算RGB通道每个通道的均值mean;
步骤1-3,利用求得均值分别计算RGB通道每个通道的Gamma系数,计算公式如下:
其中gamma为当前通道的Gamma系数,mean为当前通道的像素均值;
步骤1-4,对通道中像素进行归一化,像素值转换为0~1之间的实数;
步骤1-5,对归一化后的像素值进行预补偿,计算公式如下:
步骤1-6,对预补偿后的像素值进行反归一化,反变换为0~255的整数值;
步骤1-7,将增强处理后的各通道重新合并,生成图像自适应Gamma校正色彩增强处理的结果。
3.根据权利要求2所述的方法,其特征在于,步骤2包括:
步骤2-1,将步骤1经色彩增强后的图像由RGB空间转换至YUV空间,取其中的亮度分量,计算转换公式如下:
Y=0.299R+0.587G+0.114B,
其中Y为YUV空间的亮度分量,R、G、B分别为RGB空间中的红色、绿色、蓝色分量;
步骤2-2,计算图像在亮度分量通道的均值meanY;
步骤2-3,将图像均等切割为block*block尺寸的小方块,分别计算每个小方块的均值,其中block为局部滑动窗口的宽度;
步骤2-4,分别计算每个小方块均值与步骤2-2求得的整图均值间的差值,并将此差值作为RGB空间三个通道的差值,对图像进行差值处理,完成基于YUV空间的局部均值统计光照均衡方法。
5.根据权利要求4所述的方法,其特征在于,步骤4包括:
步骤4-1,判断本步骤输入图像数量是否大于1,若等于1则作为最终全景图像输出,若大于1则继续执行步骤4-2;
步骤4-2,将所有经过步骤1~3处理后的图像按顺序3个为一组进行分组,每相邻两组间包含一张相同图片,若剩余不足3个则单独划分为一组;
步骤4-3,分别对每一组图像组执行步骤5~步骤8的处理。
6.根据权利要求5所述的方法,其特征在于,步骤5包括:
步骤5-1,将输入图像按K*K的尺寸进行网格化,K为网格化后的小方块宽度;
步骤5-2,检测输入图像中前后1/3处宽度范围每个网格中的shift-Tomasi角点;
步骤5-3,使用具有旋转不变性、尺度缩放不变性、亮度变化不变性的Sift特征描述符对步骤5-2检测出的shift-Tomasi角点进行描述,得到描述所述角点周围图像区域特征信息的一个128维的特征向量;
步骤5-4,通过k-d树的最临近搜索方法对相邻图像间检测出的特征点进行粗略匹配,得到粗略匹配的特征点对。
7.根据权利要求6所述的方法,其特征在于,步骤6包括:
步骤6-1,采用RANSAC算法通过迭代方式对所有粗略匹配的特征点对进行筛选,为待匹配图像对应的单应矩阵,h33为单应矩阵中第3行第3列的元素,通过整个矩阵能够将一个平面上的点投射到另一个平面上,匹配图像间点坐标满足如下公式:
其中(x,y)为匹配目标图像上的像素坐标,(xi ′,yi ′)为待匹配目标图像中的像素坐标;因单应矩阵中共有9个参数,首先随机选取其中8个特征点对,从而计算出对应的9个参数值,以此矩阵对所有的特征点对进行筛选,仅留下满足单应矩阵H中9个参数的精确匹配的特征点对;
步骤6-2,利用筛选后得到的精确匹配的特征点对估算出最优的配准单应矩阵,评价模型所用的代价函数计算公式如下:
其中(xi,yi)为匹配目标图像中的特征点位置,(x′i,y′i)为待匹配目标图像中的特征点位置,所述代价函数最小时对应的为最优配准单应矩阵。
8.根据权利要求7所述的方法,其特征在于,步骤7包括:
步骤7-1,利用最优配准单应矩阵分别对待匹配图像进行透视变换;
步骤7-2,对于图像间重叠区域采用渐入渐出的融合方式进行融合处理,并将两幅图像拼接在一起,渐入渐出融合公式如下所示:
img=d*img1+(1-d)*img2,
其中,img是融合后的图像,img1和img2是待拼接的两幅图像,d为重叠区域中一个像素点到边界的距离。
9.根据权利要求8所述的方法,其特征在于,步骤8包括:判断是否完成了步骤4所划分的所有图像组的拼接,若未完成则继续完成未拼接的分组,若完成则判断所有图像组生成的全景图像个数,若个数大于1则将本轮生成的全景图作为输入重新回到步骤4,若个数等于1则结束拼接过程,输出的图像为拼接生成的全景图像。
10.根据权利要求9所述的方法,其特征在于,步骤9包括:
步骤9-1,利用Canny边缘检测算法提取出全景图像的边缘图像,边缘处像素值为255,其它区域像素值为0;
步骤9-2,结合机场场面图像特征,用20*20的滑动窗由上而下遍历整幅图像,找到天际线位置,判定依据为由上而下第一个非零像素点数由0变为0.6窗口面积数量的滑动窗的中心点作为当列的天际线位置;
步骤9-3,采用最小二乘法对所有检测出的天际线位置坐标进行拟合,得到一条圆滑的天际线曲线,选取天际线曲线纵坐标的中位数计算出基准水平直线的方程,计算天际线曲线映射到基准水平直线的映射关系;
步骤9-4,将得到的映射关系应用到全景图像上,得到根据天际线形变消除全图扭曲变形后的最终拼接全景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232738.XA CN111127318B (zh) | 2019-12-05 | 2019-12-05 | 一种机场环境下的全景图像拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232738.XA CN111127318B (zh) | 2019-12-05 | 2019-12-05 | 一种机场环境下的全景图像拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111127318A CN111127318A (zh) | 2020-05-08 |
CN111127318B true CN111127318B (zh) | 2023-04-07 |
Family
ID=70497513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911232738.XA Active CN111127318B (zh) | 2019-12-05 | 2019-12-05 | 一种机场环境下的全景图像拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111127318B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111447426B (zh) * | 2020-05-13 | 2021-12-31 | 中测新图(北京)遥感技术有限责任公司 | 一种影像色彩校正方法以及装置 |
CN111795918B (zh) * | 2020-05-25 | 2024-03-01 | 中国人民解放军陆军军医大学第二附属医院 | 一种骨髓细胞形态学自动检测扫描结构及扫描方法 |
CN111723818A (zh) * | 2020-06-22 | 2020-09-29 | 浙江大华技术股份有限公司 | 图像预处理方法和装置 |
CN112052751A (zh) * | 2020-08-21 | 2020-12-08 | 上海核工程研究设计院有限公司 | 一种安全壳水膜覆盖率检测方法 |
CN112164114B (zh) * | 2020-09-23 | 2022-05-20 | 天津大学 | 一种基于天际线匹配的室外主动相机重定位方法 |
CN112950510B (zh) * | 2021-03-22 | 2024-04-02 | 南京莱斯电子设备有限公司 | 一种大场景拼接图像色差校正方法 |
CN113012047B (zh) * | 2021-03-26 | 2021-12-14 | 广州赋安数字科技有限公司 | 动态摄像头坐标映射建立方法、装置及可读存储介质 |
CN113052765B (zh) * | 2021-04-23 | 2021-10-08 | 中国电子科技集团公司第二十八研究所 | 基于最优栅格密度模型的全景图像拼接方法 |
CN113222817A (zh) * | 2021-05-13 | 2021-08-06 | 哈尔滨工程大学 | 基于图像特征提取的12路视频图像拼接以及图像配准方法 |
CN113506275B (zh) * | 2021-07-15 | 2022-03-01 | 中国科学院生态环境研究中心 | 一种基于全景城市图像处理方法 |
CN114240845B (zh) * | 2021-11-23 | 2024-03-26 | 华南理工大学 | 一种应用于切削工件的光切法表面粗糙度测量方法 |
CN114463525B (zh) * | 2022-01-25 | 2024-06-25 | 武汉大学 | 一种面向三维重建的大规模图像色彩一致性校正方法 |
CN117036666B (zh) * | 2023-06-14 | 2024-05-07 | 北京自动化控制设备研究所 | 基于帧间图像拼接的无人机低空定位方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574339A (zh) * | 2015-02-09 | 2015-04-29 | 上海安威士科技股份有限公司 | 一种用于视频监控的多尺度柱面投影全景图像生成方法 |
WO2016086754A1 (zh) * | 2014-12-03 | 2016-06-09 | 中国矿业大学 | 一种大场景视频图像拼接方法 |
CN107103579A (zh) * | 2017-04-12 | 2017-08-29 | 湖南源信光电科技股份有限公司 | 一种面向图像拼接的ransac改进方法 |
-
2019
- 2019-12-05 CN CN201911232738.XA patent/CN111127318B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016086754A1 (zh) * | 2014-12-03 | 2016-06-09 | 中国矿业大学 | 一种大场景视频图像拼接方法 |
CN104574339A (zh) * | 2015-02-09 | 2015-04-29 | 上海安威士科技股份有限公司 | 一种用于视频监控的多尺度柱面投影全景图像生成方法 |
CN107103579A (zh) * | 2017-04-12 | 2017-08-29 | 湖南源信光电科技股份有限公司 | 一种面向图像拼接的ransac改进方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111127318A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127318B (zh) | 一种机场环境下的全景图像拼接方法 | |
US7664315B2 (en) | Integrated image processor | |
CN104966270B (zh) | 一种多图像拼接方法 | |
CN104680496B (zh) | 一种基于彩色图像分割的Kinect深度图修复方法 | |
CN107578376B (zh) | 基于特征点聚类四叉划分和局部变换矩阵的图像拼接方法 | |
CN110390640A (zh) | 基于模板的泊松融合图像拼接方法、系统、设备及介质 | |
CN103985133B (zh) | 基于图割能量优化的影像间最优拼接线寻找方法及系统 | |
CN108876723A (zh) | 一种灰度目标图像的彩色背景的构建方法 | |
CN104200461B (zh) | 基于互信息图像选块和sift特征的遥感图像配准方法 | |
CN104240211A (zh) | 用于视频拼接的图像亮度与色彩均衡方法及系统 | |
CN107818303B (zh) | 无人机油气管线影像自动对比分析方法、系统及软件存储器 | |
CN111932601B (zh) | 一种基于YCbCr颜色空间光场数据的稠密深度重建方法 | |
CN104392416A (zh) | 一种运动场景的视频拼接方法 | |
Tian et al. | Comprehensive interest points based imaging mosaic | |
CN109598736A (zh) | 深度图像与彩色图像的配准方法及装置 | |
CN106780309A (zh) | 一种合成孔径雷达图像拼接方法 | |
CN114697623A (zh) | 投影面选取和投影图像校正方法、装置、投影仪及介质 | |
CN113506275B (zh) | 一种基于全景城市图像处理方法 | |
CN113052765B (zh) | 基于最优栅格密度模型的全景图像拼接方法 | |
CN114331835A (zh) | 一种基于最优映射矩阵的全景图像拼接方法及装置 | |
CN103733207B (zh) | 图像分割方法 | |
CN110084754A (zh) | 一种基于改进sift特征点匹配算法的图像叠加方法 | |
Cho et al. | Automatic Image Mosaic System Using Image Feature Detection and Taylor Series. | |
CN111161219B (zh) | 一种适用于阴影环境的鲁棒单目视觉slam方法 | |
Lai et al. | Single image dehazing with optimal transmission map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |