CN110120012A - 基于双目摄像头的同步关键帧提取的视频拼接方法 - Google Patents

基于双目摄像头的同步关键帧提取的视频拼接方法 Download PDF

Info

Publication number
CN110120012A
CN110120012A CN201910395849.6A CN201910395849A CN110120012A CN 110120012 A CN110120012 A CN 110120012A CN 201910395849 A CN201910395849 A CN 201910395849A CN 110120012 A CN110120012 A CN 110120012A
Authority
CN
China
Prior art keywords
video
image
color
characteristic point
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910395849.6A
Other languages
English (en)
Other versions
CN110120012B (zh
Inventor
张萝献
李自立
夏海英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Normal University
Original Assignee
Guangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Normal University filed Critical Guangxi Normal University
Priority to CN201910395849.6A priority Critical patent/CN110120012B/zh
Publication of CN110120012A publication Critical patent/CN110120012A/zh
Application granted granted Critical
Publication of CN110120012B publication Critical patent/CN110120012B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了基于双目摄像头的同步关键帧提取的视频拼接方法,其特征在于,包括如下步骤:1)视频的录制;2)视频同步处理和视频图像的畸变校正;3)视频逐帧分解;4)特征点的初步匹配;5)生成变换矩阵H;6)左右两帧进行融合;7)拼接视频。这种方既能达到良好的拼接效果又能保证实时性,具有更好的筛选功能并且计算方法相对简洁。

Description

基于双目摄像头的同步关键帧提取的视频拼接方法
技术领域
本发明涉及图像提取技术领域,具体是基于双目摄像头的同步关键帧提取的视频拼接方法。
背景技术
与静态的图像拼接相比,视频拼接对实时性的要求很高。传统的视频拼接只对视频首帧进行特征提取、匹配、校准和融合,系统将计算出的单应性矩阵H进行保存,剩余帧直接采用此矩阵H进行图像融合,这种方式极大地提高了视频帧拼接的处理速度。但是,在摄像机运动的情景之下,不同帧之间的颜色、亮度、纹理等特征可能会产生较大变化,只根据一个单应性矩阵H进行图像变换将产生累计误差,导致拼接效果不甚理想。关键帧提取是指选择一个或多个帧来描述镜头,在视频索引和检索中十分重要,考虑到摄像头不是静止放置于地面而是随着搭载平台的运动而产生抖动,因此同一视频序列中的前后帧图像内容会发生较大变化,传统的关键帧提取算法难免提取过多的图像帧。颜色特征是描述视频内容最基本的特征,其计算简单、具有很强的鲁棒性,颜色矩将线性代数中矩的概念应用于颜色特征的描述,将图像中的颜色分布用其矩表示,以其简洁有效的优势在基于颜色的图像检索中被广泛使用,由于颜色矩方法的检索效率比较低,常常与其他图像特征结合使用以缩小检索范围。立体视觉一直是计算机视觉研究的热点,它最大限度地模拟人类视觉的立体感知过程,立体视觉的基本原理是从两个(或多个)视点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算图像像素之间的位置偏差(视差)来获取景物的三维信息。M.Z.Brown把立体匹配算法划分为两种:一种是只对像素周围小区域进行约束的局部匹配算法,包括基于区域相关、基于特征和基于梯度的的立体匹配算法,该算法快速但并不精确,通常用于多级处理的初步筛选,SAD(sum of absolute difference,简称SAD)是一种简洁快速的基于区域的图像匹配算法,其基本思想将每个像素对应数值之差的绝对值求和,据此评估两个图像块的相似度。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于双目摄像头的同步关键帧提取的视频拼接方法。这种方既能达到良好的拼接效果又能保证实时性,具有更好的筛选功能并且计算方法相对简洁。
实现本发明目的的技术方案是:
基于双目摄像头的同步关键帧提取的视频拼接方法,与现有技术不同处在于,包括如下步骤:
1)用OpenCV3.4.1和vs2013驱动两个相同型号的摄像头,进行视频的录制,在用摄像头进行视频录制时,采用移动采集平台,将两个摄像头平行放置并保证视野的重叠区域在30%至60%之间,摄像头边录制边移动;
2)导入两段录制好的视频,进行同步处理和视频图像的畸变校正;
3)将两段视频逐帧分解,默认首帧为关键帧,采用基于双目摄像头的同步关键帧提取方法判断同一时刻的左右两帧是否为关键帧,如果是,则执行步骤4),如果不是,则直接跳到步骤6);
4)采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配;
5)采用RANSAC算法,将两张图像帧的误匹配特征点对剔除并生成变换矩阵H;
6)左右两帧进行融合,完成图像拼接,形成一幅大视野的图像帧;
7)将拼接好的图像帧转换为视频。
步骤3)中所述的基于双目摄像头的同步关键帧提取方法包括:
(1)比较双目摄像头的左右帧差而不是前后帧差,只有在左右帧相似度小于设定的阈值时即抖动剧烈时当前帧被判定为关键帧;
(2)将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为新的评价图像相似度的指标。
步骤4)中所述的采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配过程为:
(1)建立高斯差分尺度空间:采用不同尺度的高斯函数对原始图像进行处理,然后对处理之后的图像降采样构建得到高斯金字塔,对高斯金字塔的相邻两层做差运算,得到高斯差分金字塔;
(2)高斯差分尺度空间极值点检测:比较高斯差分金字塔中各像素点与其相邻的26个像素点的关系,计算得到的高斯差分尺度空间中的极值点并不都是特征点,有些极值点响应很弱,需要对特征点进行精确定位;
(3)确定特征点方向:由于SIFT特征点有主方向,所以SIFT特征点具有旋转不变的特性,特征点的方向采用计算图像梯度的方式获取,依据特征点的模值与方向,绘制特征点的直方图,总共分为8个方向,每个方向的夹角为45°,在直方图统计时,每相邻3个像素点采用高斯加权,模板大小采用[0.25,0.5,0.25]规格,并连续加权两次;
(4)生成特征点描述子:依据尺度计算特征点邻域半径如公式(1):
其中特征点的邻域区域划分为d×d个正方形区域,d默认取值为4,先将坐标轴旋转到特征点的主方向,以保证SIFT特征点具有旋转不变的特性,然后确定特征点邻域,计算邻域中各像素的模值与方向,根据与特征点的距离确定邻域各像素的权重,进行加权运算,得到特征点的方向直方图,再将邻域的矩形窗口均匀分成4*4个区域,计算每个子区域8个方向的梯度直方图,绘制每个方向的累加值,即可形成一个种子点,共计16个种子点,最后对计算得到的128维特征向量做归一化处理;
(5)针对两个对应的视频帧,基于哈希映射和桶存储的方式,搜寻相似特征向量点对,构成相似特征集合。
步骤(2)中所述的将颜色矩和SAD算子集成在单一的公式中为:
三个颜色矩的数学定义如公式(2)、(3)和(4)所示:
其中,Pi,j代表彩色图像第i个颜色通道分量中灰度为j的像素出现的概率,N代表图像中的像素个数,由于每个像素具有颜色空间的三个颜色通道,颜色矩只需要9个分量来描述一幅图像,如果H和I分别代表前后帧图像的颜色分布,构造一个函数作为相似性度量如公式(5)所示:
其中,i和r分别是是颜色通道和总通道数,是图片颜色分布的一阶矩即均值,是二阶矩即方差,是三阶矩即斜度,其中wi1wi2wi3是用户定义的权重,SAD是一种简洁快速的基于区域的图像匹配算法,其基本思想将每个像素对应数值之差的绝对值求和,评估两个图像块的相似度如公式(6)所示:
其中Il和Ir分别为左右图像的像素灰度值,W为图中以某点为中心的邻域窗口,C(u,v,d)是在窗口累积下的匹配代价,
将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为评价图像相似度的指标如公式(7)所示:
其中,d(L,R)是左右图的相似度,W为图中以某点为中心的邻域窗口,i代表颜色通道,E、σ、S分别为图像的一、二、三阶矩,Il和Ir代表像素的灰度值,wi1~wi4是用户自定义的权重,公式(7)为本技术方案方法中的相似性度量,将颜色矩和SAD加权结合,用10个分量表示图像特征。
本技术方案结合了颜色分布与灰度的差异,设计出基于双目的同步关键帧提取方法,该方法具有更好的筛选功能并且计算方法相对简洁,该方法与单纯基于SAD和颜色矩的方法相比,取得了最高的F值,不仅如此,与传统的基于单目摄像头前后帧的选择方式相比,本技术方案方法也具有较好的性能。
这种方既能达到良好的拼接效果又能保证实时性,具有更好的筛选功能并且计算方法相对简洁。
附图说明
图1为实施例的方法的流程示意图;
图2为实施例的方法与另外两种算法的F值统计示意图。
具体实施方式
下面结合附图和实施例对本发明的内容作进一步的阐述,但不是对本发明的限定。
实施例:
参照图1,基于双目摄像头的同步关键帧提取的视频拼接方法,包括如下步骤:
1)用OpenCV3.4.1和vs2013驱动两个相同型号的摄像头,进行视频的录制,在用摄像头进行视频录制时,采用移动采集平台,将两个摄像头平行放置并保证视野的重叠区域在30%至60%之间,摄像头边录制边移动;
2)导入两段录制好的视频,进行同步处理和视频图像的畸变校正;
3)将两段视频逐帧分解,默认首帧为关键帧,采用基于双目摄像头的同步关键帧提取方法判断同一时刻的左右两帧是否为关键帧,如果是,则执行步骤4),如果不是,则直接跳到步骤6);
4)采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配;
5)采用RANSAC算法,将两张图像帧的误匹配特征点对剔除并生成变换矩阵H;
6)左右两帧进行融合,完成图像拼接,形成一幅大视野的图像帧;
7)将拼接好的图像帧转换为视频。
步骤3)中所述的基于双目摄像头的同步关键帧提取方法包括:
(1)比较双目摄像头的左右帧差而不是前后帧差,只有在左右帧相似度小于设定的阈值时即抖动剧烈时当前帧被判定为关键帧;
(2)将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为新的评价图像相似度的指标。
步骤4)中所述的采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配过程为:
(1)建立高斯差分尺度空间:采用不同尺度的高斯函数对原始图像进行处理,然后对处理之后的图像降采样构建得到高斯金字塔,对高斯金字塔的相邻两层做差运算,得到高斯差分金字塔;
(2)高斯差分尺度空间极值点检测:比较高斯差分金字塔中各像素点与其相邻的26个像素点的关系,计算得到的高斯差分尺度空间中的极值点并不都是特征点,有些极值点响应很弱,需要对特征点进行精确定位;
(3)确定特征点方向:由于SIFT特征点有主方向,所以SIFT特征点具有旋转不变的特性,特征点的方向采用计算图像梯度的方式获取,依据特征点的模值与方向,绘制特征点的直方图,总共分为8个方向,每个方向的夹角为45°,在直方图统计时,每相邻3个像素点采用高斯加权,模板大小采用[0.25,0.5,0.25]规格,并连续加权两次;
(4)生成特征点特征描述子:依据尺度计算特征点邻域半径如公式(1):
其中特征点的邻域区域划分为d×d个正方形区域,d默认取值为4,先将坐标轴旋转到特征点的主方向,以保证SIFT特征点具有旋转不变的特性,然后确定特征点邻域,计算邻域中各像素的模值与方向,根据与特征点的距离确定邻域各像素的权重,进行加权运算,得到特征点的方向直方图,再将邻域的矩形窗口均匀分成4*4个区域,计算每个子区域8个方向的梯度直方图,绘制每个方向的累加值,即可形成一个种子点,共计16个种子点,最后对计算得到的128维特征向量做归一化处理;
(5)针对两个对应的视频帧,基于哈希映射和桶存储的方式,搜寻相似特征向量点对,构成相似特征集合。
步骤(2)中所述的将颜色矩和SAD算子集成在单一的公式中为:
三个颜色矩的数学定义如公式(2)、(3)和(4)所示:
其中,Pi,j代表彩色图像第i个颜色通道分量中灰度为j的像素出现的概率,N代表图像中的像素个数,由于每个像素具有颜色空间的三个颜色通道,颜色矩只需要9个分量来描述一幅图像,如果H和I分别代表前后帧图像的颜色分布,构造一个函数作为相似性度量如公式(5)所示:
其中,i和r分别是是颜色通道和总通道数,是图片颜色分布的一阶矩即均值,是二阶矩即方差,是三阶矩即斜度,其中wi1wi2wi3是用户定义的权重,SAD是一种简洁快速的基于区域的图像匹配算法,其基本思想将每个像素对应数值之差的绝对值求和,评估两个图像块的相似度如公式(6)所示:
其中Il和Ir分别为左右图像的像素灰度值,W为图中以某点为中心的邻域窗口,C(u,v,d)是在窗口累积下的匹配代价,
将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为评价图像相似度的指标如公式(7)所示:
其中,d(L,R)是左右图的相似度,W为图中以某点为中心的邻域窗口,i代表颜色通道,E、σ、S分别为图像的一、二、三阶矩,Il和Ir代表像素的灰度值,wi1~wi4是用户自定义的权重,公式(7)为本例方法中的相似性度量,将颜色矩和SAD加权结合,用10个分量表示图像特征。
具体地,本例中,双目摄像头的同步关键帧提取过程如下:
(1)针对两个待拼接视频,读取第i个视频帧;
(2)将i1和i2图像从RGB颜色空间转换为HSV颜色空间,对于每个像素的三个颜色通道选择前三个分布矩来表示图像的颜色分布;
(3)将i1和i2图像彩色图像转换为灰度图,以i1为参考图像,用7×7大小的模板遍历i2,计算两幅图像的绝对差和(SAD);
(4)将颜色矩和绝对差和(SAD)加权结合,作为新的相似性度量;
(5)计算i1和i2的相似性,只有当小于阈值k时当前帧i被选择为关键帧。
为了衡量本例方法的有效性和准确性,引入了精确率(P)和召回率(R),准确率是评估捕获的成果中目标成果所占的比例;召回率,顾名思义,就是从关注领域中召回目标类别的比例,希望在准确率高的同时召回率也高,但在实际中这两个标准是相互矛盾的,采用二者的调和均值(F)来评价方法的整体性能,其定义如下:
其中,A、B和C分别表示检测出的正确的关键帧、检测出的错误的关键帧和漏检的关键帧数量,评价系数F的取值范围为0至1,方法的性能越好F的值越高,如图2所示,采用本例的方法,F的值明显高于其他2种方法。

Claims (4)

1.基于双目摄像头的同步关键帧提取的视频拼接方法,其特征在于,包括如下步骤:
1)用OpenCV3.4.1和vs2013驱动两个相同型号的摄像头,进行视频的录制,在用摄像头进行视频录制时,采用移动采集平台,将两个摄像头平行放置并保证视野的重叠区域在30%至60%之间,摄像头边录制边移动;
2)导入两段录制好的视频,进行同步处理和视频图像的畸变校正;
3)将两段视频逐帧分解,默认首帧为关键帧,采用基于双目摄像头的同步关键帧提取方法判断同一时刻的左右两帧是否为关键帧,如果是,则执行步骤4),如果不是,则直接跳到步骤6);
4)采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配;
5)采用RANSAC算法,将两张图像帧的误匹配特征点对剔除并生成变换矩阵H;
6)左右两帧进行融合,完成图像拼接,形成一幅大视野的图像帧;
7)将拼接好的图像帧转换为视频。
2.根据权利要求1所述的基于双目摄像头的同步关键帧提取的视频拼接方法,其特征在于,步骤3)中所述的基于双目摄像头的同步关键帧提取方法包括:
(1)比较双目摄像头的左右帧差而不是前后帧差,只有在左右帧相似度小于设定的阈值时即抖动剧烈时当前帧被判定为关键帧;
(2)将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为新的评价图像相似度的指标。
3.根据权利要求1所述的基于双目摄像头的同步关键帧提取的视频拼接方法,其特征在于,步骤4)中所述的采用SURF算法对左右两帧进行特征点提取并进行特征点的初步匹配过程为:
(1)建立高斯差分尺度空间:采用不同尺度的高斯函数对原始图像进行处理,然后对处理之后的图像降采样构建得到高斯金字塔,对高斯金字塔的相邻两层做差运算,得到高斯差分金字塔;
(2)高斯差分尺度空间极值点检测:比较高斯差分金字塔中各像素点与其相邻的26个像素点的关系,对特征点进行精确定位;
(3)确定特征点方向:特征点的方向采用计算图像梯度的方式获取,依据特征点的模值与方向,绘制特征点的直方图,总共分为8个方向,每个方向的夹角为45°,在直方图统计时,每相邻3个像素点采用高斯加权,模板大小采用[0.25,0.5,0.25]规格,并连续加权两次;
(4)生成特征点描述子:依据尺度计算特征点邻域半径如公式(1):
其中特征点的邻域区域划分为d×d个正方形区域,d默认取值为4,先将坐标轴旋转到特征点的主方向,然后确定特征点邻域,计算邻域中各像素的模值与方向,根据与特征点的距离确定邻域各像素的权重,进行加权运算,得到特征点的方向直方图,再将邻域的矩形窗口均匀分成4*4个区域,计算每个子区域8个方向的梯度直方图,绘制每个方向的累加值,即可形成一个种子点,共计16个种子点,最后对计算得到的128维特征向量做归一化处理;
(5)针对两个对应的视频帧,基于哈希映射和桶存储的方式,搜寻相似特征向量点对,构成相似特征集合。
4.根据权利要求2所述的基于双目摄像头的同步关键帧提取的视频拼接方法,其特征在于,步骤(2)中所述的将颜色矩和SAD算子集成在单一的公式中为:
三个颜色矩的数学定义如公式(2)、(3)和(4)所示:
其中,Pi,j代表彩色图像第i个颜色通道分量中灰度为j的像素出现的概率,N代表图像中的像素个数,每个像素具有颜色空间的三个颜色通道,颜色矩只需要9个分量来描述一幅图像,如果H和I分别代表前后帧图像的颜色分布,构造一个函数作为相似性度量如公式(5)所示:
其中,i和r分别是是颜色通道和总通道数,是图片颜色分布的一阶矩即均值,是二阶矩即方差,是三阶矩即斜度,其中wi1wi2wi3是用户定义的权重,SAD是将每个像素对应数值之差的绝对值求和,评估两个图像块的相似度如公式(6)所示:
其中Il和Ir分别为左右图像的像素灰度值,W为图中以某点为中心的邻域窗口,C(u,v,d)是在窗口累积下的匹配代价,
将颜色矩和SAD算子集成在单一的公式中,以其城区距离作为评价图像相似度的指标如公式(7)所示:
其中,d(L,R)是左右图的相似度,W为图中以某点为中心的邻域窗口,i代表颜色通道,E、σ、S分别为图像的一、二、三阶矩,Il和Ir代表像素的灰度值,wi1~wi4是用户自定义的权重。
CN201910395849.6A 2019-05-13 2019-05-13 基于双目摄像头的同步关键帧提取的视频拼接方法 Active CN110120012B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910395849.6A CN110120012B (zh) 2019-05-13 2019-05-13 基于双目摄像头的同步关键帧提取的视频拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910395849.6A CN110120012B (zh) 2019-05-13 2019-05-13 基于双目摄像头的同步关键帧提取的视频拼接方法

Publications (2)

Publication Number Publication Date
CN110120012A true CN110120012A (zh) 2019-08-13
CN110120012B CN110120012B (zh) 2022-07-08

Family

ID=67522166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910395849.6A Active CN110120012B (zh) 2019-05-13 2019-05-13 基于双目摄像头的同步关键帧提取的视频拼接方法

Country Status (1)

Country Link
CN (1) CN110120012B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111063079A (zh) * 2019-11-27 2020-04-24 深圳云天励飞技术有限公司 一种基于门禁系统的双目活体人脸检测方法及装置
CN114449130A (zh) * 2022-03-07 2022-05-06 北京拙河科技有限公司 一种多摄像头的视频融合方法及系统
CN114612613A (zh) * 2022-03-07 2022-06-10 北京拙河科技有限公司 动态光场重建方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230556A (ja) * 1994-02-17 1995-08-29 Hazama Gumi Ltd Cg立体視アニメーションの生成法
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法
KR20110081413A (ko) * 2010-01-08 2011-07-14 한국과학기술원 분산 비디오 코딩을 위한 픽셀 도메인 기반의 관심영역 추출방법 및 컴퓨터 판독가능 매체
CN102521816A (zh) * 2011-11-25 2012-06-27 浪潮电子信息产业股份有限公司 一种云数据中心机房实时宽场景监控合成方法
CN103985114A (zh) * 2014-03-21 2014-08-13 南京大学 一种监控视频人物前景分割与分类的方法
CN104954791A (zh) * 2015-07-01 2015-09-30 中国矿业大学 矿井无线分布式视频编码中的关键帧实时选取方法
CN105245841A (zh) * 2015-10-08 2016-01-13 北京工业大学 一种基于cuda的全景视频监控系统
CN105608671A (zh) * 2015-12-30 2016-05-25 哈尔滨工业大学 一种基于surf算法的图像拼接方法
CN105957017A (zh) * 2016-06-24 2016-09-21 电子科技大学 一种基于自适应关键帧采样的视频拼接方法
CN109064409A (zh) * 2018-10-19 2018-12-21 广西师范大学 一种移动机器人的视觉图像拼接系统及方法
CN109359549A (zh) * 2018-09-20 2019-02-19 广西师范大学 一种基于混合高斯和hog_lbp的行人检测方法
CN109658366A (zh) * 2018-10-23 2019-04-19 平顶山天安煤业股份有限公司 基于改进ransac和动态融合的实时视频拼接方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230556A (ja) * 1994-02-17 1995-08-29 Hazama Gumi Ltd Cg立体視アニメーションの生成法
KR20110081413A (ko) * 2010-01-08 2011-07-14 한국과학기술원 분산 비디오 코딩을 위한 픽셀 도메인 기반의 관심영역 추출방법 및 컴퓨터 판독가능 매체
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法
CN102521816A (zh) * 2011-11-25 2012-06-27 浪潮电子信息产业股份有限公司 一种云数据中心机房实时宽场景监控合成方法
CN103985114A (zh) * 2014-03-21 2014-08-13 南京大学 一种监控视频人物前景分割与分类的方法
CN104954791A (zh) * 2015-07-01 2015-09-30 中国矿业大学 矿井无线分布式视频编码中的关键帧实时选取方法
CN105245841A (zh) * 2015-10-08 2016-01-13 北京工业大学 一种基于cuda的全景视频监控系统
CN105608671A (zh) * 2015-12-30 2016-05-25 哈尔滨工业大学 一种基于surf算法的图像拼接方法
CN105957017A (zh) * 2016-06-24 2016-09-21 电子科技大学 一种基于自适应关键帧采样的视频拼接方法
CN109359549A (zh) * 2018-09-20 2019-02-19 广西师范大学 一种基于混合高斯和hog_lbp的行人检测方法
CN109064409A (zh) * 2018-10-19 2018-12-21 广西师范大学 一种移动机器人的视觉图像拼接系统及方法
CN109658366A (zh) * 2018-10-23 2019-04-19 平顶山天安煤业股份有限公司 基于改进ransac和动态融合的实时视频拼接方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111063079A (zh) * 2019-11-27 2020-04-24 深圳云天励飞技术有限公司 一种基于门禁系统的双目活体人脸检测方法及装置
CN111063079B (zh) * 2019-11-27 2022-04-15 深圳云天励飞技术有限公司 一种基于门禁系统的双目活体人脸检测方法及装置
CN114449130A (zh) * 2022-03-07 2022-05-06 北京拙河科技有限公司 一种多摄像头的视频融合方法及系统
CN114612613A (zh) * 2022-03-07 2022-06-10 北京拙河科技有限公司 动态光场重建方法及系统
CN114612613B (zh) * 2022-03-07 2022-11-29 北京拙河科技有限公司 动态光场重建方法及系统

Also Published As

Publication number Publication date
CN110120012B (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
US9530192B2 (en) Method for determining stereo quality score and automatically improving the quality of stereo images
TWI554976B (zh) 監控系統及其影像處理方法
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
US8508580B2 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
CN107833181B (zh) 一种基于变焦立体视觉的三维全景图像生成方法
EP2194725B1 (en) Method and apparatus for correcting a depth image
CN111462503B (zh) 车辆测速方法、装置及计算机可读存储介质
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
CN106570899B (zh) 一种目标物体检测方法及装置
CN110189294B (zh) 基于深度可信度分析的rgb-d图像显著性检测方法
WO2018053952A1 (zh) 一种基于场景样本库的影视图像深度提取方法
CN109525786B (zh) 视频处理方法、装置、终端设备及存储介质
CN110120012A (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
CN110956661A (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
CN104392416A (zh) 一种运动场景的视频拼接方法
WO2014180255A1 (zh) 一种数据处理方法、装置、计算机存储介质及用户终端
CN105894443A (zh) 一种基于改进的surf算法的实时视频拼接方法
CN111383204A (zh) 视频图像融合方法、融合装置、全景监控系统及存储介质
Zhang et al. Synthetic aperture based on plenoptic camera for seeing through occlusions
CN114782507B (zh) 一种基于无监督学习的非对称双目立体匹配方法及系统
Swaminathan et al. Polycameras: Camera clusters for wide angle imaging
Orozco et al. HDR multiview image sequence generation: Toward 3D HDR video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant