CN109348140B - 一种监控场景下实时视频的拼接方法 - Google Patents
一种监控场景下实时视频的拼接方法 Download PDFInfo
- Publication number
- CN109348140B CN109348140B CN201811190341.4A CN201811190341A CN109348140B CN 109348140 B CN109348140 B CN 109348140B CN 201811190341 A CN201811190341 A CN 201811190341A CN 109348140 B CN109348140 B CN 109348140B
- Authority
- CN
- China
- Prior art keywords
- video frame
- common
- corresponding video
- image
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012544 monitoring process Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 59
- 238000009432 framing Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 75
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 29
- 230000009466 transformation Effects 0.000 claims description 29
- 238000013441 quality evaluation Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种监控场景下实时视频的拼接方法,具体包括以下步骤,采集待拼接视频,对待拼接视频进行分帧处理得到视频帧;通过融合形成起始时刻拼接图像和普通拼接图像;将输出的起始时刻拼接图像和普通拼接图像转化为视频文件。本发明一种监控场景下实时视频的拼接方法简单高效,在进行实时视频采集的同时,实时进行视频拼接,满足同时对同一监控场景不同角度观看的需求。
Description
技术领域
本发明属于视频拼接技术领域,涉及一种监控场景下实时视频的拼接方法。
背景技术
随着网络和多媒体技术的快速发展,各种视频、图像应用技术进入人们生活之中,其中视频占据了重要的部分。人们对大场景高分辨率的视频图像信息的需求十分迫切。人们通常用鱼眼镜头等广角设备来获得大场景的视频,但是画面会出现严重的变形,并且这类设备通常比较昂贵。视频拼接可以很好地解决这个问题,而且方法简单、成本低、效果好。无论是在军事领域上还是在民用领域,如监控、指挥、调度、公安、消防、铁路、医学、航空等,都有着广泛的应用。
监控场景下我们时常需要获得监控区域的全景视频,但是由于单个的摄像设备只能看到局部的场景视频,如果通过移动的云台来观察四周的场景,只能在某一时刻得到某一个局部视野,不能满足同时对同一监控场景不同角度观看的需求。
发明内容
本发明的目的是提供一种监控场景下实时视频的拼接方法,能够满足同时对同一监控场景不同角度观看的需求。
本发明所采用的技术方案是,一种监控场景下实时视频的拼接方法,具体包括以下步骤:
采集待拼接视频,对待拼接视频进行分帧处理得到视频帧,时间对应的视频帧为相应视频帧对;
判断起始时刻相应视频帧对之间是否存在绝对单应性矩阵,若起始时刻相应视频帧对之间存在绝对单应性矩阵,则利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成拼接图像;若起始时刻相应视频帧对之间不存在绝对单应性矩阵,则找到起始时刻相应视频帧对的特征匹配点对,求出起始时刻相应视频帧对的仿射变换矩阵,将起始时刻相应视频帧对的仿射变换矩阵值赋给其绝对单应性矩阵,利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像,输出起始时刻拼接图像;
除起始时刻外的相应视频帧对为普通相应视频帧对,普通相应视频帧对的绝对单应性矩阵值与上一时刻的相应视频帧对的绝对单应性矩阵值相等,根据普通相应视频帧对的绝对单应性矩阵值,利用多分辨率融合算法将普通相应视频帧对进行融合形成普通拼接图像;对普通拼接图像进行融合质量评估,判断是否符合设置要求,若普通拼接图像符合设置要求,则输出普通拼接图像;若普通拼接图像不符合设置要求,则找到该普通相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵,将该普通相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,利用多分辨率融合算法将该普通相应视频帧对进行融合形成普通拼接图像,普通拼接图像融合质量评估符合设置要求,输出普通拼接图像;
将输出的起始时刻拼接图像和普通拼接图像转化为视频文件。
本发明的特点还在于,
相应视频帧对的视频帧重叠区域大于视频帧图像的20%。
找到起始时刻相应视频帧对的特征匹配点对,求出起始时刻相应视频帧对的仿射变换矩阵具体为,利用FAST角点检测算法对起始时刻相应视频帧对进行角点检测,找出特征点;利用rBRIEF算法,对特征点进行特征描述,并且根据特征点描述找出特征点匹配点对;利用RANSAC算法提出错误的匹配点对,对特征点对进行提纯,得到优化后的匹配点对;利用反向误差最小的方法,求解出放射变换矩阵;找到该相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵同理。
利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像具体为,利用起始时刻相应视频帧的绝对单应性矩阵值计算起始时刻相应视频帧对之间的视频帧重叠区域;用最佳缝合线法将重叠区域划分为缝合区和过渡区,在过渡区中使用加权平均算法融合进行平滑过渡,在缝合区域使用多分辨率融合算法进行融合,得到起始时刻拼接图像;利用多分辨率融合算法将普通相应视频帧对进行融合形成普通拼接图像同理。
对普通拼接图像进行融合质量评估,判断是否符合设置要求具体为,采用DoEM边缘差分谱算法对普通拼接图像的DoEM值进行评估,若DoEM 值大于设置的阈值 ,则普通拼接图像符合设置要求,否则普通拼接图像不符合设置要求。
将输出的起始时刻拼接图像和普通拼接图像转化为视频文件具体为,通过cvCreateVideoWriter函数创建一个视频结构体指针cvvideowriter,设置视频的大小、帧率、编码方式;利用opencv库中的cvWriteFrame函数将起始时刻拼接图像和普通拼接图像的每一帧图像的信息保存到opencv库中的视频结构体指针,完成拼接图像转化为视频文件。
本发明的有益效果是,本发明一种监控场景下实时视频的拼接方法简单高效,能够通过常见的视频采集设备,如摄像头和计算机,在进行实时视频采集的同时,实时进行视频拼接,满足同时对同一监控场景不同角度观看的需求;本发明利用图像拼接质量评价对结果进行判断,根据结果对绝对单应性矩阵进行更新,使得本发明可以对一些突发情况,例如监控摄像头被移动物体碰撞导致的摄像头偏移,具有一定的适应能力,并且可以及时纠正错误仿射变换矩阵,达到实时拼接,具有较高的实用价值。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
一种监控场景下实时视频的拼接方法,具体包括以下步骤:
采集待拼接视频,对待拼接视频进行分帧处理得到视频帧,时间对应的视频帧为相应视频帧对,相应视频帧对的视频帧重叠区域大于视频帧图像的 20%。
判断起始时刻相应视频帧对之间是否存在绝对单应性矩阵,若起始时刻相应视频帧对之间存在绝对单应性矩阵,则利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成拼接图像;若起始时刻相应视频帧对之间不存在绝对单应性矩阵,则找到起始时刻相应视频帧对的特征匹配点对,求出起始时刻相应视频帧对的仿射变换矩阵,将起始时刻相应视频帧对的仿射变换矩阵值赋给其绝对单应性矩阵,利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像,输出起始时刻拼接图像;
除起始时刻外的相应视频帧对为普通相应视频帧对,普通相应视频帧对的绝对单应性矩阵值与上一时刻的相应视频帧对的绝对单应性矩阵值相等,根据普通相应视频帧对的绝对单应性矩阵值,利用多分辨率融合算法将普通相应视频帧对进行融合形成普通拼接图像;对普通拼接图像进行融合质量评估,判断是否符合设置要求,若普通拼接图像符合设置要求,则输出普通拼接图像;若普通拼接图像不符合设置要求,则找到该普通相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵,将该普通相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,利用多分辨率融合算法将该普通相应视频帧对进行融合形成普通拼接图像,普通拼接图像融合质量评估符合设置要求,输出普通拼接图像。
将输出的起始时刻拼接图像和普通拼接图像转化为视频文件,具体通过cvCreateVideoWriter函数创建一个视频结构体指针cvvideowriter,设置视频的大小、帧率、编码方式;利用opencv库中的cvWriteFrame函数将起始时刻拼接图像和普通拼接图像的每一帧图像的信息保存到opencv库中的视频结构体指针,完成拼接图像转化为视频文件。
找到起始时刻相应视频帧对的特征匹配点对,求出起始时刻相应视频帧对的仿射变换矩阵具体为,利用FAST角点检测算法对起始时刻相应视频帧对进行角点检测,找出特征点;利用rBRIEF算法,对特征点进行特征描述,并且根据特征点描述找出特征点匹配点对;利用RANSAC算法提出错误的匹配点对,对特征点对进行提纯,得到优化后的匹配点对;利用反向误差最小的方法,求解出放射变换矩阵;找到该相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵同理。
FAST角点检测算法根据像素点p与以p为中心的半径为3个像素的圆周上像素点的像素差值,判断像素点p是否为特征点,若圆周上有连续T个像素点满足差值绝对值大于设置的阈值,则像素点p为特征点,否则像素点 p不是像素点。T的取值一般为9、12和16,实验证明T取9,效果最好。
rBRIEF算法是这一种生成二值化描述子的算法,不仅提取代价低,匹配也只需要使用简单的汉明距离利用比特之间的异或操作就可以完成。因此时间代价低,空间代价低,效果好。在特征点所在的图像块中,按照设置的采样方式选取点对,假设x,y是一对点对,如果x的灰度值大于y的灰度值,取1,否则是0。图像块内的点对数量可以是128,256或者512。一般取值为256,这样就可以得到长度为256的二进制描述符。
为了使描述符具备旋转不变性,我们为图像块添加方向,通过灰度质心与特征点之间的向量确定特征点的方向,将这个方向作为图像块的方向,使得描述符具备旋转不变性。
RANSAC算法利用随机的4对匹配点对,求出一个仿射矩阵,记为模型M,计算数据集中所有数据与模型M的投影误差,若小于阈值,则内点数加1。通过迭代,获得内点数最大的内点集,这些内点就是经过提纯的匹配特征点对。
利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像具体为,利用起始时刻相应视频帧的绝对单应性矩阵值计算起始时刻相应视频帧对之间的视频帧重叠区域;用最佳缝合线法将重叠区域划分为缝合区和过渡区,在过渡区中使用加权平均算法融合进行平滑过渡,在缝合区域使用多分辨率融合算法进行融合,得到起始时刻拼接图像;利用多分辨率融合算法将普通相应视频帧对进行融合形成普通拼接图像同理。
加权平均法图像融合算法的原理就是:对原图像的像素值取权值,然后进行加权平均得到融合图像的像素值,权值的取值取决于像素点距离重叠区边缘的距离。
多分辨率融合算法是先将各个源图像分解为图像金字塔,然后分别对金字塔各层的图像按照一定的方法确定新的拼接图像该层的像素值,组合形成拼接后的图像金字塔组,最后再将图像金字塔逆向重构为最终的拼接图像。常用的多分辨率金字塔分解方法有高斯金字塔分解、拉普拉斯金字塔分解和小波金字塔分解。
对普通拼接图像进行融合质量评估,判断是否符合设置要求具体为,采用DoEM边缘差分谱算法对普通拼接图像的DoEM值进行评估,若DoEM 值大于设置的阈值 ,则普通拼接图像符合设置要求,否则普通拼接图像不符合设置要求。采用DoEM边缘差分谱算法对融合后的普通图像质量进行评估,由于错位和亮度突变是影响拼接效果的主要原因,错位和亮度突变会对 DoEM边缘差分谱的方差和均值造成影响,所以DoEM值可以客观的反应融合后的拼接效果,并且与人的主观评价较为符合,主观评价和客观评分等级之间的映射关系如表1所示。
表1主观评价和客观评分等级之间的映射关系
通过上述方式,本发明一种监控场景下实时视频的拼接方法简单高效,在进行实时视频采集的同时,实时进行视频拼接,满足同时对同一监控场景不同角度观看的需求;本发明利用图像拼接质量评价对结果进行判断,根据结果对绝对单应性矩阵进行更新,使得本发明可以对一些突发情况,例如监控摄像头被移动物体碰撞导致的摄像头偏移,具有一定的适应能力,并且可以及时纠正错误仿射变换矩阵,达到实时拼接,具有较高的实用价值。
实施例1
本实施例提供一种监控场景下实时视频的拼接方法,具体包括以下步骤:
采集待拼接视频,对待拼接视频进行分帧处理得到视频帧,时间对应的视频帧为相应视频帧对,相应视频帧对共有N对,所述N为不为0的自然数。
经判断,起始时刻相应视频帧对即第一对相应视频帧对之间存在绝对单应性矩阵H,则根据H,利用多分辨率融合算法将第一对相应视频帧对进行融合形成第一拼接图像,输出第一拼接图像。
第二对相应视频帧对的绝对单应性矩阵即为第一对相应视频帧对的绝对单应性矩阵,根据H,利用多分辨率融合算法将第二对相应视频帧对进行融合形成第二拼接图像,对第二拼接图像进行融合质量评估,判断符合设置要求,输出第二拼接图像。
第三对相应视频帧对的绝对单应性矩阵即为第二对相应视频帧对的绝对单应性矩阵,根据H,利用多分辨率融合算法将第三对相应视频帧对进行融合形成第三拼接图像,对第三拼接图像进行融合质量评估,判断符合设置要求,输出第三拼接图像。
第四对相应视频帧对的绝对单应性矩阵即为第三对相应视频帧对的绝对单应性矩阵,根据H,利用多分辨率融合算法将第四对相应视频帧对进行融合形成第四拼接图像,对第四拼接图像进行融合质量评估,判断不符合设置要求,找到第四对相应视频帧对的特征匹配点对,求出第四对相应视频帧对的仿射变换矩阵h1,将第四对相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,即将h1的值赋给H得到H’,利用多分辨率融合算法将第四对相应视频帧对进行融合形成第四拼接图像,第四拼接图像融合质量评估符合设置要求,输出第四拼接图像。
第五对相应视频帧对的绝对单应性矩阵即为第四对相应视频帧对的绝对单应性矩阵,根据H’,利用多分辨率融合算法将第五对相应视频帧对进行融合形成第五拼接图像,对第五拼接图像进行融合质量评估,判断符合设置要求,输出第五拼接图像。
以此类推,依次输出第六拼接图像,第七拼接图像,第八拼接图像,……,第N拼接图像。
将输出的第一拼接图像,第二拼接图像,第三拼接图像,……,第N拼接图像转化为视频文件。
实施例2
本实施例提供一种监控场景下实时视频的拼接方法,具体包括以下步骤:
采集待拼接视频,对待拼接视频进行分帧处理得到视频帧,时间对应的视频帧为相应视频帧对,相应视频帧对共有N对,所述N为不为0的自然数。
经判断,起始时刻相应视频帧对即第一对相应视频帧对之间不存在绝对单应性矩阵H,找到第一对相应视频帧对的特征匹配点对,求出第一对相应视频帧对的仿射变换矩阵h0,将第四对相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,即将h0的值赋给H得到H0’,根据H0’,利用多分辨率融合算法将第一对相应视频帧对进行融合形成第一拼接图像,输出第一拼接图像。
第二对相应视频帧对的绝对单应性矩阵即为第一对相应视频帧对的绝对单应性矩阵,根据H0’,利用多分辨率融合算法将第二对相应视频帧对进行融合形成第二拼接图像,对第二拼接图像进行融合质量评估,判断符合设置要求,输出第二拼接图像。
第三对相应视频帧对的绝对单应性矩阵即为第二对相应视频帧对的绝对单应性矩阵,根据H0’,利用多分辨率融合算法将第三对相应视频帧对进行融合形成第三拼接图像,对第三拼接图像进行融合质量评估,判断符合设置要求,输出第三拼接图像。
第四对相应视频帧对的绝对单应性矩阵即为第三对相应视频帧对的绝对单应性矩阵,根据H0’,利用多分辨率融合算法将第四对相应视频帧对进行融合形成第四拼接图像,对第四拼接图像进行融合质量评估,判断不符合设置要求,找到第四对相应视频帧对的特征匹配点对,求出第四对相应视频帧对的仿射变换矩阵h1,将第四对相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,即将h1的值赋给H得到H’,利用多分辨率融合算法将第四对相应视频帧对进行融合形成第四拼接图像,第四拼接图像融合质量评估符合设置要求,输出第四拼接图像。
第五对相应视频帧对的绝对单应性矩阵即为第四对相应视频帧对的绝对单应性矩阵,根据H’,利用多分辨率融合算法将第五对相应视频帧对进行融合形成第五拼接图像,对第五拼接图像进行融合质量评估,判断符合设置要求,输出第五拼接图像。
以此类推,依次输出第六拼接图像,第七拼接图像,第八拼接图像,……,第N拼接图像。
将输出的第一拼接图像,第二拼接图像,第三拼接图像,……,第N拼接图像转化为视频文件。
Claims (6)
1.一种监控场景下实时视频的拼接方法,其特征在于,具体包括以下步骤:
采集待拼接视频,对所述待拼接视频进行分帧处理得到视频帧,时间对应的视频帧为相应视频帧对;
判断起始时刻相应视频帧对之间是否存在绝对单应性矩阵,若起始时刻相应视频帧对之间存在绝对单应性矩阵,则利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像;若起始时刻相应视频帧对之间不存在绝对单应性矩阵,则找到起始时刻相应视频帧对的特征匹配点对,求出所述起始时刻相应视频帧对的仿射变换矩阵,将所述起始时刻相应视频帧对的仿射变换矩阵值赋给其绝对单应性矩阵,利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像,输出所述起始时刻拼接图像;
除起始时刻外的相应视频帧对为普通相应视频帧对,普通相应视频帧对的绝对单应性矩阵值与上一时刻的相应视频帧对的绝对单应性矩阵值相等,根据普通相应视频帧对的绝对单应性矩阵值,利用多分辨率融合算法将所述普通相应视频帧对进行融合形成普通拼接图像;对所述普通拼接图像进行融合质量评估,判断是否符合设置要求,若所述普通拼接图像符合设置要求,则输出所述普通拼接图像;若所述普通拼接图像不符合设置要求,则找到该普通相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵,将该普通相应视频帧对的仿射变换矩阵的值赋给其绝对单应性矩阵,利用多分辨率融合算法将该普通相应视频帧对进行融合形成普通拼接图像,所述普通拼接图像融合质量评估符合设置要求,输出所述普通拼接图像;
将输出的所述起始时刻拼接图像和所述普通拼接图像转化为视频文件。
2.根据权利要求1所述的一种监控场景下实时视频的拼接方法,其特征在于,所述相应视频帧对的视频帧重叠区域大于视频帧图像的20%。
3.根据权利要求1所述的一种监控场景下实时视频的拼接方法,其特征在于,所述找到起始时刻相应视频帧对的特征匹配点对,求出所述起始时刻相应视频帧对的仿射变换矩阵具体为,利用FAST角点检测算法对起始时刻相应视频帧对进行角点检测,找出特征点;利用rBRIEF算法,对所述特征点进行特征描述,并且根据所述特征点描述找出特征点匹配点对;利用RANSAC算法提出错误的匹配点对,对所述特征点对进行提纯,得到优化后的匹配点对;利用反向误差最小的方法,求解出仿射变换矩阵;找到该相应视频帧对的特征匹配点对,求出该普通相应视频帧对的仿射变换矩阵同理。
4.根据权利要求1所述的一种监控场景下实时视频的拼接方法,其特征在于,所述利用多分辨率融合算法将起始时刻相应视频帧对进行融合形成起始时刻拼接图像具体为,利用起始时刻相应视频帧的绝对单应性矩阵值计算起始时刻相应视频帧对之间的视频帧重叠区域;用最佳缝合线法将所述重叠区域划分为缝合区和过渡区,在所述过渡区中使用加权平均算法融合进行平滑过渡,在所述缝合区使用多分辨率融合算法进行融合,得到起始时刻拼接图像;利用多分辨率融合算法将所述普通相应视频帧对进行融合形成普通拼接图像同理。
5.根据权利要求1所述的一种监控场景下实时视频的拼接方法,其特征在于,所述对所述普通拼接图像进行融合质量评估,判断是否符合设置要求具体为,采用DoEM边缘差分谱算法对普通拼接图像的DoEM值进行评估,若所述DoEM值大于设置的阈值,则普通拼接图像符合设置要求,否则普通拼接图像不符合设置要求。
6.根据权利要求1所述的一种监控场景下实时视频的拼接方法,其特征在于,所述将输出的所述起始时刻拼接图像和所述普通拼接图像转化为视频文件具体为,通过cvCreateVideoWriter函数创建一个视频结构体指针cvvideowriter,设置视频的大小、帧率、编码方式;利用opencv库中的cvWriteFrame函数将起始时刻拼接图像和所述普通拼接图像的每一帧图像的信息保存到opencv库中的视频结构体指针,完成拼接图像转化为视频文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811190341.4A CN109348140B (zh) | 2018-10-12 | 2018-10-12 | 一种监控场景下实时视频的拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811190341.4A CN109348140B (zh) | 2018-10-12 | 2018-10-12 | 一种监控场景下实时视频的拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109348140A CN109348140A (zh) | 2019-02-15 |
CN109348140B true CN109348140B (zh) | 2021-01-15 |
Family
ID=65309265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811190341.4A Expired - Fee Related CN109348140B (zh) | 2018-10-12 | 2018-10-12 | 一种监控场景下实时视频的拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109348140B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009567A (zh) * | 2019-04-09 | 2019-07-12 | 三星电子(中国)研发中心 | 用于鱼眼镜头的图像拼接方法和装置 |
CN111753856A (zh) * | 2020-05-26 | 2020-10-09 | 中国人民解放军96901部队21分队 | 一种基于中心自适应的视频快速拼接方法 |
CN113971233B (zh) * | 2021-12-22 | 2022-04-12 | 中国西安卫星测控中心 | 一种基于帧质量评估的遥测数据融合方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101984463A (zh) * | 2010-11-02 | 2011-03-09 | 中兴通讯股份有限公司 | 全景图合成方法及装置 |
CN104408701B (zh) * | 2014-12-03 | 2018-10-09 | 中国矿业大学 | 一种大场景视频图像拼接方法 |
CN107147879A (zh) * | 2017-06-02 | 2017-09-08 | 太仓韬信信息科技有限公司 | 一种实时视频拼接方法 |
CN108230248A (zh) * | 2018-01-23 | 2018-06-29 | 深圳普捷利科技有限公司 | 一种基于自适应特征点配准的环视系统拼接效果评估和自动微调方法 |
-
2018
- 2018-10-12 CN CN201811190341.4A patent/CN109348140B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN109348140A (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109348140B (zh) | 一种监控场景下实时视频的拼接方法 | |
CN103795976B (zh) | 一种全时空立体可视化方法 | |
CN110324626B (zh) | 一种面向物联网监控的双码流人脸分辨率保真的视频编解码方法 | |
US9846820B2 (en) | Method and system for coding or recognizing of surveillance videos | |
CN107004271B (zh) | 显示方法、装置、电子设备、计算机程序产品和存储介质 | |
US11037308B2 (en) | Intelligent method for viewing surveillance videos with improved efficiency | |
CN101916455B (zh) | 一种高动态范围纹理三维模型的重构方法及装置 | |
WO2011107448A2 (en) | Object detection and rendering for wide field of view (wfov) image acquisition systems | |
CN112861691A (zh) | 基于部位感知建模的遮挡场景下的行人重识别方法 | |
CN115761618A (zh) | 一种重点场所安防监控图像识别方法 | |
CN110705366A (zh) | 基于楼梯场景的实时人头检测方法 | |
CN116403260A (zh) | 一种ai人脸替换方法 | |
CN110348329B (zh) | 基于视频序列帧间信息的行人检测方法 | |
CN112418127B (zh) | 一种用于视频行人重识别的视频序列编码与解码方法 | |
CN107358191B (zh) | 视频报警检测方法和装置 | |
US11044399B2 (en) | Video surveillance system | |
CN112991396B (zh) | 一种基于监控摄像头下的目标跟踪方法及装置 | |
CN115115713A (zh) | 一种统一时空融合的环视鸟瞰图感知方法 | |
CN110674347B (zh) | 视觉屏蔽双层ap视频摘要生成方法 | |
CN112766225A (zh) | 基于流动性人员的步态自动建库的装置及方法 | |
CN114202651A (zh) | 一种增强感兴趣区域的图像超分方法、系统及介质 | |
Sowmya et al. | Object based forgery detection and localization in videos | |
Chen et al. | Key clips and key frames extraction of videos based on deep learning | |
CN116485677A (zh) | 一种目标实时智能消隐方法 | |
CN115830517B (zh) | 基于视频的考场异常帧提取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210115 Termination date: 20211012 |