CN109697696B - 用于全景视频的补盲方法 - Google Patents
用于全景视频的补盲方法 Download PDFInfo
- Publication number
- CN109697696B CN109697696B CN201811584162.9A CN201811584162A CN109697696B CN 109697696 B CN109697696 B CN 109697696B CN 201811584162 A CN201811584162 A CN 201811584162A CN 109697696 B CN109697696 B CN 109697696B
- Authority
- CN
- China
- Prior art keywords
- image
- blind
- panoramic picture
- picture
- overlay region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008901 benefit Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000009466 transformation Effects 0.000 claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 11
- 230000004075 alteration Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000009416 shuttering Methods 0.000 description 3
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种用于全景视频的补盲方法,包括下列步骤:1)盲区指定:确定全景图像中的盲区以及包围在所述盲区周围的图像重叠区,获得包含所述盲区和图像重叠区对应场景图像的补盲图像;2)图像匹配:进行特征点检测及特征点的匹配,获得若干匹配点对;3)图像变换:采用最小二乘法估算补盲图像与全景图像件的变换关系,获得图像变换矩阵或图像变换参数;4)图像融合:依据图像变换矩阵或图像变换参数,将补盲图像变换至全景坐标系下,与全景图像融合,形成补盲后全景图像。本发明能够以便将补盲画面融入全景画面当中,用户不仅可直接在全面画面的对应位置看到盲区情形,而且补盲画面与全景画面有较好的融合,使补盲显示清晰直观。
Description
技术领域
本发明涉及一种用于全景视频的补盲方法。
背景技术
图像拼接是将几幅具有不同视角但包含一定图像重叠区的图像拼成一幅全景图像,被广泛应用于安防监控、遥感图像处理、医学图像分析、虚拟现实等领域。尤其对于机场、广场等大视野场景,利用图像拼接技术得到的全景视频可一目了然地呈现场景全貌,相比将各个单路视频简单排列显示,具有全面、直观等不可比拟的优点。
由于视角、遮挡等原因,在全景视频中仍有可能存在部分用户感兴趣区域不能很好呈现。例如,在机场全景视频中,远处跑道及远机位一般都很清楚,但近机位可能由于廊桥遮挡等原因存在一定盲区。本专利旨在提出一种在全景视频中的补盲方法,融合补盲视频与全景视频,以更为直观的方式将全景补盲区域呈现给用户。
在全景中呈现细节或补盲的主要方式包括:球机关联和枪机关联。
球机关联:在全景之外再单独使用一个球机,并将球机不同PTZ状态下的画面与全景画面进行关联。当用户点击全景中某一感兴趣区域时,球机随即转到相应位置,以较高分辨率显示该区域画面,也称“一点即视”,如果结合运动目标检测、跟踪技术,还可进一步实现“球机自动追视”。球机关联的主要优点在于可以交互式地显示用户感兴趣区域的细节;如果点位布设恰当,也能起到补盲作用,但对用户持续关注的盲区,更好的方式是采用枪机关联。
枪机关联:与球机不同,枪机以固定视角与视野拍摄目标,能够持续显示全景视频中用户关注的盲区或局部细节。
但无论球机关联还是枪机关联,都是在全景画面之外以独单画面的形式显示盲区。对用户而言,全景与盲区的对应关系不够清晰直观,特别当全景中存在多个盲区,有多个补盲画面并存时,问题尤显突出。
发明内容
为解决上述技术问题,本发明提供了一种用于全景视频的补盲方法,以便将补盲画面融入全景画面当中,用户不仅可直接在全面画面的对应位置看到盲区情形,而且补盲画面与全景画面有较好的融合,使补盲显示清晰直观。
本发明的技术方案是:一种用于全景视频的补盲方法,包括下列步骤:
1)盲区指定:确定全景图像中的盲区(需要进行补盲的区域,或称全景盲区,或不可见区域)以及包围在所述盲区周围的图像重叠区,获得包含所述盲区和图像重叠区对应场景图像的补盲图像;
2)图像匹配:在全景图像的图像重叠区进行特征点检测,以相同的特征点检测方式在补盲图像中进行特征点检测,进行全景图像和补盲图像相应特征点的匹配,获得若干匹配点对;
3)图像变换:根据全景图像和补盲图像上的若干匹配点对,采用最小二乘法估算补盲图像与全景图像件的变换关系,获得图像变换矩阵或图像变换参数;
4)图像融合:依据图像变换矩阵或图像变换参数,将补盲图像变换至全景坐标系下,与全景图像融合,全景图像中的盲区图像由补盲图像相应区域的图像替代,形成补盲后全景图像。
所述全景图像通常可以由若干全景场景摄像机拍摄的视频图像拼接而成。
所述补盲图像可以为补盲场景摄像机拍摄的视频图像。
可以依据同一时间的全景图像和补盲图像,离线进行图像匹配和图像变换。
可以依据离线计算获得的变换矩阵,在线进行图像融合。
通常应定期更新图像融合参数。
可以以手动交互的方式在全景图像中框选出盲区和图像重叠区,其中所述盲区位于图像重叠区内,所述图像重叠区为位于盲区外的相应框选区域。
优选基于ORB(oriented FAST and rotated BRIEF)算法提取图像特征并进行相应的特征点匹配。
优选以角点为特征点,所述特征点检测为角点检测
优选采用快速FAST算子进行角点检测,以灰度质心法计算特征点主方向。
优选以改进的BRIEF(Binary robust independent elementary features)描述子描述角点特征。
优选采用RANSAC(Random Sample Consensus)算法估计图像变换矩阵。
补盲后全景图像在盲区内各点(像素)的值通常应为补盲图像的相应像素值,在图像重叠区外各点的像素值通常应为全景图像的相应像素值。
在图像重叠区内各点的像素值优选为全景图像和补盲图像的相应像素值的加权平均值,全景图像的权重系数和补盲图像的权重系数之和通常应为1。
在图像重叠区的内侧区域(近盲区区域),补盲图像的权重系数优选大于全景图像的权重系数。
在图像重叠区的外侧区域(近外部区域),全景图像的权重系数优选大于补盲图像的权重系数。
优选在补盲图像与全景图像融合前进行色差矫正。
色差矫正后,优选在全景图像与补盲图像的图像重叠区中寻找二者差异最小的封闭曲线,以该封闭曲线作为缝合线。
优选以缝合线为界,在缝合线的内侧,补盲图像的权重系数大于全景图像的权重系数,且越靠近盲区越大,在缝合线的外侧,全景图像的权重系数大于补盲图像的权重系数,且越靠外缘越大。
例如,可以为,在位于缝合线外侧的图像重叠区,补盲图像的权重系数依据像素点与缝合线之间的距离确定,距离越大,权重系数越小,在位于缝合线内侧的图像重叠区,全景图像的权重系数依据像素点与缝合线之间的距离确定,距离越大,权重系数越小。
本发明的有益效果是:本发明的输入数据分别是全景图像和补盲图像,全景图像是由多路视频拼接得到[1],感兴趣盲区由用户指定,补盲图像来自补盲摄像机,补盲摄像机的布设须尽量使其成像光轴与全景画面虚拟光轴保持一致,其画面能够覆盖全景图像中的用户指定盲区,并与盲区存在共同可见的图像重叠区,经过图像匹配、变换及融合等处理,最终输出补盲融合后的全景图像。
附图说明
图1是本发明的流程示意图;
图2是补盲融合的图像示意图;
图3是盲区和图像重叠区分布示意图;
图4是图像特征提取与匹配流程示意图;
图5角点检测圆形模板;
图6是图像融合示意图;
图7全景图像的距离变换模板;
图8是补盲图像的距离变换模板。
具体实施方式
参见图1-8,本发明将补盲图像的画面融入全景画面当中,用户不仅可直接在全面画面的对应位置看到盲区情形,而且补盲画面与全景画面有较好的融合,使得补盲显示更为清晰直观(参见图2)。
本发明的处理流程如图1所示,输入数据分别是全景图像和补盲图像,其中,全景图像是由多路视频拼接得到[1],感兴趣的盲区由用户指定;补盲图像来自补盲摄像机,补盲摄像机的布设须尽量使其成像光轴与全景画面虚拟光轴保持一致,即补盲摄像机的成像光轴与全景图像的虚拟光轴保持一致或基本一致,其画面能够覆盖全景图像中的用户指定盲区,并与盲区存在共同可见的图像重叠区,经过图像匹配、变换及融合等处理,最终输出补盲融合后的全景图像(可称为补盲后全景图像,以与补盲前的全景图像相区别)。
本发明包括下列几个基本步骤:
1)盲区指定
如图3所示,可以通过手动框选方式等方式进行盲区指定,用户在全景图像中指定的盲区呈“回”字型,其中内框表示在全景中不可见而在补盲图像中可见的场景区域,称作盲区或不可见区域;内、外框之间的部分表示同时在全景及补盲图像中可见的场景,称作图像重叠区。
盲区可以不止一个,如用户指定多个盲区,则需布设多个补盲摄像头,分别对不同盲区进行补盲融合。
盲区不限于规则形状,可以是任意形状。
2)图像匹配
图像匹配的目的在于建立补盲图像与全景图像中的盲区之间的对应关系,以便完成后续的图像变换。
图像匹配的方法是在图像重叠区寻找匹配的点对,通常可采用特征点自动提取匹配的方式,当然,也可以采用手工指定的方式。
图像匹配的前提是补盲图像与指定的全景盲区存在图像重叠区,从而能够在图像重叠区提取具有相似性的图像特征。
可以采用ORB(oriented FAST and rotated BRIEF)算法[2]提取图像特征并进行匹配,其处理流程如图3所示。其中,图像特征提取分别在全景图像的图像重叠区和补盲图像上完成,包括角点检测、确定主方向、特征点描述等步骤。具体可包括:
2.1)角点检测
角点检测采用快速FAST算子,利用一个固定大小的圆形模板(如图4所示),设模板的中心像素点为P,其灰度值为Ip,比较圆形模板圆周上16个像素点的灰度值与Ip的大小关系,如果这16个像素点中,有M个连续点,其像素值均大于Ip+t或均小于Ip-t(t为给定阈值),那么就认为中心点P是一个角点,也即特征点。通常情况,t=40,M=9。
2.2)确定主方向
然后采用灰度质心法计算特征点主方向,将特征点与其邻域质心之间的偏移向量作为该特征点的主方向。首先计算特征点邻域灰度矩的质心位置,特征点邻域矩定义如下:
θ=arctan(m01,m10) 式(5)
其中x,y是特征点邻域内以特征点为原点的像素位置坐标,I(x,y)为点(x,y)处的灰度值,r为圆形邻域半径,mpq称为p+q阶矩(p、q均为非负整数),m00是0阶矩,m10,m01是1阶矩,C为质心,θ即是特征点到质心偏移向量的角度,以之作为特征点的主方向,以便下一步得到具有供旋转不变性的特征描述子。
2.3)特征点描述
ORB算法以改进的BRIEF(Binary robust independent elementary features)描述子描述特征,主要改进是对BRIEF添加了方向信息。在特征点邻域内随机选取n个点对(Xk,Yk),做如下二值测试,并将n个测试结果构成二值字串。
其中,I表示图像灰度,fn(I)即是BRIEF描述子,n一般取256,构成一个256bit的二值特征描述子。
以下为BRIEF描述子添加方向信息,对每个点对(Xk,Yk),如下定义2×2n维矩阵S,并根据特征点主方向角θ,构造旋转矩阵Rθ,对S进行矫正得到Sθ,进而得到具有旋转不变性的特征描述子gn(I,θ)。
S=[X1,Y1,X2,Y2,...,Xn,Yn]
Sθ=RθS=[X1′,Y1′,X2′,Y2′,...,Xn′,Yn′]
2.4)特征匹配
基于前面得到的ORB二值特征描述子,可通过汉明距离计算两个特征点间的特征距离:
其中,G1和G2分别表示两个特征点的描述子,表示它们的汉明距离,越小,表示这两个特征点的相似程度越高。
通过计算图像对中所有ORB特征点间的特征距离,得到每个特征点的最近邻与次近邻特征点,计算到最近邻与次近邻特征点的特征距离比值,若比值比小于给定阈值Thr1时,则认为该特征点与其最近邻点相匹配。通常情况,Thr可设为0.6。
2.5)图像变换
获得匹配点对后,可利用最小二乘法估计补盲图像与全景图像间的变换关系。如式9,假设它们满足仿射变换关系:
其中,(x,y)、(x′,y′)分别表示补盲图像与全景图像坐标,h0~h5表示待求图像变换矩阵H的参数,使用至少3对匹配点对可估计得出。
为剔除错误匹配点对,提高估计的可靠性,本发明采用RANSAC(Random SampleConsensus)算法估计图像变换矩阵。
设初始最佳内点数Ni=0,算法步骤如下:
(a)从匹配点对中随机选取3对初始匹配点对建立方程组,求解变换矩阵H的6个未知参数。
(b)计算剩余特征点经过变换矩阵变换后的坐标值与其匹配点之间的距离:
式(10)
若距离小于阈值Thr2(可设为3),则认为该特征点匹配对为内点,否则为外点。
(c)比较当前内点数目,若大于Ni,则转换矩阵H为当前最佳,更新Ni为当前内点数。
(d)经过若干次随机抽样计算后,选择内点最多的变换矩阵参数为图像间的变换矩阵。
3)图像融合
得到矩阵H后,可将补盲图像变换至全景坐标系下,并与全景图像进行融合(如图6):
其中,p表示像素,Iwarp、Ipano和Ifuse分别表示变换后的补盲图像、全景图像(用户指定盲区部分)和融合后的图像,当像素坐标位于不可见区域时,融合结果等于补盲图像像素值;位于图像重叠区时,融合结果等于全景图像与补盲图像的加权平均,wpano、wwarp表示权重系数,满足wpano+wwarp=1。一种简单的方法可令wpano=wwarp=0.5,但融合效果通常不佳,易出现重影现象。另外,由于补盲图像与全景图像可能存在色差,直接融合后也易导致明显的拼缝。因此,更好的融合方法是先做色差矫正,然后搜索最优拼缝,最后根据最优拼缝计算融合加权系数。
具体如下:
(a)色差矫正
分别计算全景图像与补盲图像在图像重叠区的像素均值mpano与mwarp,以全景图像作为参考,将补盲图像的整体色调矫正至与全景图像近似。
其中Iwarp、I′warp分别表示矫正前和矫正后的补盲图像。值得一提的是,虽然像素均值的计算只针对图像重叠区,但对补盲图像的色差矫正是对整个图像进行的,包括不可见区域与图像重叠区,后续操作将在全景图像与矫正后的补盲图像上完成。
(b)搜索最优拼缝
搜索最优拼缝的目的是在全景图像与补盲图像的图像重叠区中寻找二者差异最小的部分,以之作为图像间的缝合线(如图6),可表示为对如下定义的能量函数进行最小化:
E=∑(p,q)∈Ne(p,q)
e(p,q)=||Ipano(p)-I′warp(p)||+||Ipano(q)-I′warp(q)|| 式(13)
其中,补盲图像I′warp带撇号表示是经过色差矫正后的图像,p、q是图像重叠区内的相邻像素(N表示邻域),它们定义了一段图像“边”;e(p,q)是其代价函数,定义为全景图像与补盲图像在边(p、q)上的像素值之差。优化过程即是搜索使能量函数E最小的边(p、q)的集合,它们穿越了图像间差异最小的区域,构成了图像的最优拼缝。优化方法可采用graph-cut算法,它通过图论模型解决能量优化问题,广泛应用于图像分割、纹理合成、图像修复、图像拼接、抠图等视觉领域,具体细节可参考文献[3-4]
(c)计算加权系数
得到最优拼缝后,可进一步确定图像融合的权重,基本思想是:在最优拼缝外侧,逐步减小补盲图像权重wwarp,而在最优拼缝内侧,逐步减小全景图像权重wpano,具体可通过距离变换来实现。以最优拼缝为界,为全景图像与补盲图像分别定义用于距离变换的模版maskpano(如图7所示)与maskwarp(如图8所示),其中,黑色表示背景区域(记为B),白色表示目标区域(记为O),则距离变换图像D(p)的值表示像素p到与之最近的目标区域像素q的距离,定义如下:
其中,dist(p,q)表示像素p、q间的距离。
分别以maskpano与maskwarp作为定义目标区域的模板,可计算出全景图像与补盲图像的距离变换图像Dpano与Dwarp,则权重系数定义为距离图像的倒数:
上式中分母加1是为避免除零错误,公式表明在最优拼缝外侧(全景图像的目标区域,补盲图像的背景区域),全景图像权重为1(Dpano=0),而补盲图像权重随到最优拼缝的距离增大而减小;反之在最优拼缝内侧(全景图像的背景区域,补盲图像的目标区域),补盲图像权重为1(Dwarp=0),全景图像权重随到最优拼缝的距离增大而减小。为使wpano+wwarp=1,还需对上述计算得到的wpano、wwarp进行归一化,从而得到最终权重。
实时性考虑:为保证补盲视频能够实时融合,可对上述流程做如下优化,前提假设是摄像机固定不动。
(a)离线计算图像变换参数:图像匹配及变换矩阵计算都较为耗时,但在摄像机固定情况下,图像变换矩阵H可离线计算,对在线处理的每帧补盲视频,只需按预先计算的矩阵H向全景图像进行变换即可。
(b)在线定期更新图像融合参数:考虑到光照条件会随时间变化,故色差矫正、图像加权等融合参数不可如图像变换参数一样离线计算后就固定不变,但可以假设光照条件短时内保持恒定,因此不必每帧都计算融合参数,只定期更新即可,更新周期设为1至2分钟为宜。
本发明公开的各优选和可选的技术手段,除特别说明外及一个优选或可选技术手段为另一技术手段的进一步限定外,均可以任意组合,形成若干不同的技术方案。
参考文献
[1]“Image Alignment and Stitching:ATutorial”,Technical Report ofMicrosoft Research,2006.
[2]“ORB:An Efficient Alternative to SIFT or SURF”,ICCV,2012.
[3]“Interactive Graph Cuts for Optimal Boundary&Region Segmentationof Objects in N-D Images”,ICCV,2001.
[4]“Image Segmentation:ASurvey of Graph-cut Methods”,ICSAI,2012.
Claims (10)
1.一种用于全景视频的补盲方法,包括下列步骤:
盲区指定:确定全景图像中的盲区以及包围在所述盲区周围的图像重叠区,获得包含所述盲区和图像重叠区对应场景图像的补盲图像,所述补盲图像为补盲场景摄像机拍摄的视频图像;
图像匹配:在全景图像的图像重叠区进行特征点检测,以相同的特征点检测方式在补盲图像中进行特征点检测,进行全景图像和补盲图像相应特征点的匹配,获得若干匹配点对;
图像变换:根据全景图像和补盲图像上的若干匹配点对,采用最小二乘法估算补盲图像与全景图像件的变换关系,获得图像变换矩阵或图像变换参数;
图像融合:依据图像变换矩阵或图像变换参数,将补盲图像变换至全景坐标系下,与全景图像融合,全景图像中的盲区图像由补盲图像相应区域的图像替代,形成补盲后全景图像。
2.如权利要求1所述的方法,其特征在于所述全景图像由若干全景场景摄像机拍摄的视频图像拼接而成。
3.如权利要求1所述的方法,其特征在于依据同一时间的全景图像和补盲图像,离线进行图像匹配和图像变换,依据离线计算获得的变换矩阵,在线进行图像融合,定期更新图像融合参数。
4.如权利要求1所述的方法,其特征在于以手动交互的方式在全景图像中框选出盲区和图像重叠区,其中所述盲区位于图像重叠区内,所述图像重叠区为位于盲区外的相应框选区域。
5.如权利要求1所述的方法,其特征在于基于ORB算法提取图像特征并进行相应的特征点匹配。
6.如权利要求5所述的方法,其特征在于以角点为特征点,所述特征点检测为角点检测,采用快速FAST算子进行角点检测,以灰度质心法计算特征点主方向,以改进的BRIEF描述子描述角点特征。
7.如权利要求6所述的方法,其特征在于采用RANSAC算法估计图像变换矩阵。
8.如权利要求1-7任一项所述的方法,其特征在于补盲后全景图像在盲区内各点的像素值为补盲图像的相应像素值,在图像重叠区外各点的像素值为全景图像的相应像素值,在图像重叠区内各点的像素值为全景图像和补盲图像的相应像素值的加权平均值,在图像重叠区的内侧区域,补盲图像的权重系数大于全景图像的权重系数,在图像重叠区的外侧区域,全景图像的权重系数大于补盲图像的权重系数,全景图像的权重系数和补盲图像的权重系数之和为1。
9.如权利要求8所述的方法,其特征在于在补盲图像与全景图像融合前,进行色差矫正。
10.如权利要求9所述的方法,其特征在于色差矫正后,在全景图像与补盲图像的图像重叠区中寻找二者差异最小的封闭曲线,以该封闭曲线作为缝合线,在位于缝合线外侧的图像重叠区,补盲图像的权重系数依据像素点与缝合线之间的距离确定,距离越大,权重系数越小,在位于缝合线内侧的图像重叠区,全景图像的权重系数依据像素点与缝合线之间的距离确定,距离越大,权重系数越小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811584162.9A CN109697696B (zh) | 2018-12-24 | 2018-12-24 | 用于全景视频的补盲方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811584162.9A CN109697696B (zh) | 2018-12-24 | 2018-12-24 | 用于全景视频的补盲方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109697696A CN109697696A (zh) | 2019-04-30 |
CN109697696B true CN109697696B (zh) | 2019-10-18 |
Family
ID=66232722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811584162.9A Active CN109697696B (zh) | 2018-12-24 | 2018-12-24 | 用于全景视频的补盲方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109697696B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111090087B (zh) * | 2020-01-21 | 2021-10-26 | 广州赛特智能科技有限公司 | 一种智能导航机器、激光雷达盲区补偿方法及存储介质 |
CN112017222A (zh) * | 2020-09-08 | 2020-12-01 | 北京正安维视科技股份有限公司 | 视频全景拼接与三维融合方法及装置 |
CN113572978A (zh) * | 2021-07-30 | 2021-10-29 | 北京房江湖科技有限公司 | 全景视频的生成方法和装置 |
CN116887058B (zh) * | 2023-09-07 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 图像采集方法、装置、采集设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673473A (zh) * | 2009-09-24 | 2010-03-17 | 浙江大学 | 基于dsp的全景视觉泊车辅助装置及生成全景视觉图像的方法 |
CN102045546A (zh) * | 2010-12-15 | 2011-05-04 | 广州致远电子有限公司 | 一种全景泊车辅助系统 |
CN104038743A (zh) * | 2014-06-23 | 2014-09-10 | 浙江工业大学 | 一种融合位置跟踪的视频监控方法及其系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046649A (zh) * | 2015-06-30 | 2015-11-11 | 硅革科技(北京)有限公司 | 一种去除运动视频中运动物体的全景图拼接方法 |
CN105205785B (zh) * | 2015-10-09 | 2019-03-19 | 济南东朔微电子有限公司 | 一种可定位的大型车辆运行管理系统及其运行方法 |
GB2544786A (en) * | 2015-11-27 | 2017-05-31 | Univ Of East Anglia | Method and system for generating an output image from a plurality of corresponding input image channels |
CN106780303A (zh) * | 2016-12-02 | 2017-05-31 | 上海大学 | 一种基于局部配准的图像拼接方法 |
CN106657910B (zh) * | 2016-12-22 | 2018-10-09 | 国网浙江省电力公司杭州供电公司 | 一种电力变电站的全景视频监控方法 |
CN107580186B (zh) * | 2017-07-31 | 2020-07-07 | 北京理工大学 | 一种基于缝合线时空优化的双摄像机全景视频拼接方法 |
-
2018
- 2018-12-24 CN CN201811584162.9A patent/CN109697696B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673473A (zh) * | 2009-09-24 | 2010-03-17 | 浙江大学 | 基于dsp的全景视觉泊车辅助装置及生成全景视觉图像的方法 |
CN102045546A (zh) * | 2010-12-15 | 2011-05-04 | 广州致远电子有限公司 | 一种全景泊车辅助系统 |
CN104038743A (zh) * | 2014-06-23 | 2014-09-10 | 浙江工业大学 | 一种融合位置跟踪的视频监控方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109697696A (zh) | 2019-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697696B (zh) | 用于全景视频的补盲方法 | |
CN105245841B (zh) | 一种基于cuda的全景视频监控系统 | |
Ma et al. | Infrared and visible image fusion via gradient transfer and total variation minimization | |
CN104685513B (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
CN104574347B (zh) | 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 | |
CN110992263B (zh) | 一种图像拼接方法及系统 | |
CN111553939B (zh) | 一种多目摄像机的图像配准算法 | |
CN106504194B (zh) | 一种基于最佳拼接平面和局部特征的图像拼接方法 | |
CN110381268B (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
CN111445389A (zh) | 一种高分辨率图像的宽视角快速拼接方法 | |
CN109685078A (zh) | 基于自动标注的红外图像识别方法 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
Mistry et al. | Image stitching using Harris feature detection | |
CN105809626A (zh) | 一种自适应光线补偿的视频图像拼接方法 | |
CN103902953B (zh) | 一种屏幕检测系统及方法 | |
CN111192194B (zh) | 一种针对幕墙建筑立面的全景图像拼接方法 | |
TW201926244A (zh) | 即時視訊畫面拼接方法 | |
CN112163622A (zh) | 全局与局部融合约束的航空宽基线立体像对线段特征匹配方法 | |
CN111626307A (zh) | 一种基于l-orb算法的植株图像实时拼接方法 | |
Rozumnyi et al. | Fmodetect: Robust detection of fast moving objects | |
Xue et al. | Fisheye distortion rectification from deep straight lines | |
CN110120012A (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
Guiqin et al. | A fast aerial images mosaic method based on ORB feature and homography matrix | |
CN109598675B (zh) | 多重复纹理图像的拼接方法 | |
Bai | Overview of image mosaic technology by computer vision and digital image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |