CN105787876A - 一种基于surf特征跟踪匹配的全景视频自动拼接方法 - Google Patents

一种基于surf特征跟踪匹配的全景视频自动拼接方法 Download PDF

Info

Publication number
CN105787876A
CN105787876A CN201511026932.4A CN201511026932A CN105787876A CN 105787876 A CN105787876 A CN 105787876A CN 201511026932 A CN201511026932 A CN 201511026932A CN 105787876 A CN105787876 A CN 105787876A
Authority
CN
China
Prior art keywords
video
surf
point
spliced
hash
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201511026932.4A
Other languages
English (en)
Other versions
CN105787876B (zh
Inventor
朱珂
许维纲
夏冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI GUIHE SOFTWARE TECHNOLOGY Co.,Ltd.
Original Assignee
Shanghai Yiben Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yiben Information Technology Co Ltd filed Critical Shanghai Yiben Information Technology Co Ltd
Priority to CN201511026932.4A priority Critical patent/CN105787876B/zh
Publication of CN105787876A publication Critical patent/CN105787876A/zh
Application granted granted Critical
Publication of CN105787876B publication Critical patent/CN105787876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于SURF特征跟踪匹配的全景视频自动拼接方法,该方法包括:首帧区分式处理方法,首帧用来选取视频参考坐标系,后续帧直接进行视频融合;根据待拼接视频首帧,提取SURF特征点,生成特征点描述向量;基于哈希映射和桶存储的方式,搜寻相似SURF特征向量点对,构成相似特征集合;利用相似SURF特征集合中的向量点对,求解最佳数据关联度坐标系;将经过坐标变换的待拼接视频帧的像素值进行动态加权求和,实现视频的无缝拼接融合。本发明能够实现全方位、多视角、立体化的视频无缝拼接融合,不仅克服了因图像平移、旋转、缩放和放射变换等因素造成的痕迹、模糊和重影现象,而且提高了基于特征匹配进行图像校准的效率和精度。

Description

一种基于SURF特征跟踪匹配的全景视频自动拼接方法
技术领域
本发明涉及到计算机图形图像学技术领域,具体是一种基于SURF特征跟踪匹配的全景视频自动拼接方法。
背景技术
视频图像是人类获取视觉信息的主要途径,在全国重要场所、轨道交通、重点区域、敏感地带等地区建设的视频监控信息系统,在进行政治活动、日常警务工作、社会公共安全管理等方面发挥了不可替代的重要作用。视频拼接作为这些年来图像研究方面的重点之一,国内外研究人员也提出了一些拼接技术。根据视频图像匹配方法的不同,一般可以将视频拼接技术分为以下两种类型:
1.基于区域相关的视频拼接技术
基于区域相关的视频拼接技术是从待拼接图像的灰度值出发,对待配准图像中一块区域与参考图像中的相同尺寸的区域使用最小二乘法、平均值法、加权值法等计算其灰度值的差异,对差异比较后判断待拼接视频图像重叠区域的相似程度,由此得到待拼接视频图像重叠区域的范围和位置,从而实现视频拼接。这种方法实现简单、便捷,但是,拼接效果较差,常常由于亮度、对比度的变化及其它原因导致拼接失败。
2.基于特征相关的拼接技术
基于特征的配准方法不是直接利用视频图像的像素值,而是通过像素导出图像特征,然后以图像特征为标准,对图像重叠部分的对应特征区域进行搜索匹配。特征匹配的算法有:交叉相关、距离变换、动态编程、结构匹配、链码相关等算法。但到目前为止,基于特征相关的视频拼接技术依然存在以下问题:特征提取难度大、匹配效率低,易受视频图像平移、旋转等因素的影响,拼接融合易产生痕迹、模糊和重影现象。
另外,结合视频监控系统与业务部门应用需求,现有视频拼接技术体系也存在较大差距,成为制约业务实战和管理创新的瓶颈。
(1)现有工作仍然依赖于传统分镜头监控,无法对由多个监控摄像机所覆盖的场景及周边环境进行整体的全景实时监控,不同视频资源切换,因角度、视野等差异,在实际指挥工作中存在不便,一旦发生重大或者突发问题,很难迅速有效地进行全局监视、宏观预估及综合调度、实时指挥。
(2)现有的分镜头视频监控系统无法实现全程的迅速精确地定位追踪目标,当目标离开单镜头监控范围,很难获取完全的运行轨迹,导致目标跟踪失效,同样的问题也存在于基于视频资料的历史事件查找回溯中。
(3)现有的分镜头视频监控系统缺乏有效的手段识别多个体、多区域、跨镜头的协同活动,从而有可能造成分析的偏差或错误,决断的延迟或错漏,乃至应急响应的迟误。
发明内容
有鉴于此,针对视频拼接中特征匹配效率低、拼接效果差的问题,本发明公开一种基于SURF特征跟踪匹配的全景视频自动拼接方法,通过利用面向视频帧的SURF特征快速提取、基于哈希桶映射的SURF特征匹配、基于投影模型的视频坐标变换以及基于动态加权的视频帧融合等方法,克服因视频图像平移、旋转等因素造成的模糊重影问题,有效提高视频特征匹配的处理速度和精度,实现视频的无缝拼接融合。
为了达到上述目的,本发明是通过以下技术方案实现的:
一种基于SURF特征跟踪匹配的全景视频自动拼接方法,包含以下步骤:
步骤一:
针对两个或者多个待衔接视频,分别读取两个或者多个视频的首帧图像;
步骤二:
对首帧图像进行SURF特征快速提取,生成SURF特征点描述向量,其中,所述SURF特征是一种基于尺度空间的、对图像平移、旋转、缩放和放射变换保持鲁棒性的图像局部特征;
步骤三:
进行基于哈希桶映射的SURF特征匹配,即对待拼接视频的首帧图像,基于哈希映射和桶存储的方式,搜寻相似SURF特征向量点对,构成相似特征集合;
步骤四:
进行基于投影模型的视频坐标变换,利用相似SURF特征集合中的向量点对,求解最佳数据关联度坐标系模型;
步骤五:
进行基于动态加权的视频帧融合,将经过坐标变换的待拼接视频帧的像素值进行加权求和,实现视频的无缝拼接融合;
步骤六:
读取两个或者多个待衔接视频的后续帧图像,直接进行步骤四和步骤五。
优选地,所述待衔接视频的数量为两个,分别为待拼接视频A和待拼接视频B。
进一步地,所述步骤二中的SURF特征快速提取,包括以下步骤:
步骤1:构造“4组5层”尺度空间;
利用不同模板尺寸盒子滤波近似不同尺度的二阶高斯微分滤波,建立高斯尺度空间,构造“4组5层”盒子滤波对原始图像进行过滤,设定a表示尺度空间坐标,第一组盒子尺度为a×a、k2a×k2a、k3a×k3a、k4a×k4a、k5a×k5a,第2~4组依次类推,其中k>1;
步骤2:针对第i组尺度空间,在每一层上随机采样n个样本点;
步骤3:计算第i组尺度空间的极值点,确定为SURF特征点;
首先,取第i组尺度空间的第j个采样点Sj;其次,判断若Sj是否是该组尺度空间所有样本点的最大值或最小值;最后,若是最大值或最小值,确定Sj为第i组尺度空间的SURF特征点,否则,重复计算第j+1个采样点Sj+1;
步骤4:计算特征点的主方向,生成特征点描述向量。
进一步地,所述步骤二还包括以下步骤:构造“4组5层”尺度空间的盒子滤波器对原始图像过滤;基于相邻尺度比较的SURF特征点选取;计算以特征点为圆心、6倍尺度为半径的圆形邻域内图像Haar小波响应,设定特征点的主方向,生成特征点描述向量。
进一步地,所述步骤三中的哈希桶包含多个桶,桶数为N,每个桶高相等且记为H,依据哈希桶构造位置敏感哈希函数h(x),其中h(x)是位置敏感的哈希函数,两个SURF特征点相对位置越近,则计算得到哈希值K相等的概率越大;h(x)的哈希值K在[1,N]上服从均匀分布。
进一步地,所述步骤三中的基于哈希桶映射的SURF特征匹配,包括以下步骤:
步骤1:针对待拼接视频A和待拼接视频B,将其包含的所有SURF特征点分别进行哈希映射,分别计算对应哈希值;
步骤2:以哈希桶的方式存储具有相同哈希值的SURF特征点;
步骤3:针对任意哈希桶,计算桶内所有SURF特征点对(x,y)的欧式距离,其中,SURF特征点x属于待拼接视频A,SURF特征点y属于待拼接视频B;
步骤4:选取距离最小的作为最佳匹配特征点对。
进一步地,所述在步骤四中的基于投影模型的视频坐标变换,包括以下步骤:步骤1:根据视频图像存在的投影变换关系,确定最佳数据关联度坐标系矩阵H。采用射影变换,2幅待拼接视频SURF特征点满足如下变换关系:
x i ′ y i ′ 1 = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 1 x i y i 1
其中,(xi,yi)为第i对匹配特征点对,通过变换矩阵后,得到变换后的对应特征点(xi',yi'),需要根据样本特征点估计矩阵H中的8个参数;
步骤2:将SURF特征点对分成K=N/M层,其中N为总的特征点对数目,M为每层特征点对数目;
步骤3:针对任意一层,从SURF特征点对中随机抽取4对特征点,计算矩阵H;
步骤4:设定误差阈值L,并用其它特征点对(xi,yi)来检验模型矩阵H,计算变换误差ε,若某一特征点对(xi,yi)的εi≤L,则将其归为内点;否则,归为外点;
步骤5:重复步骤3、步骤4,直到计算所有K层,找出K层中内点数量最多的为最佳数据关联度坐标系矩阵H。
进一步地,所述在步骤五中的基于动态加权的视频帧融合,包括以下步骤:
步骤1:设I1和I2为两幅待拼接的图像的重叠部分,I1和I2对应的像素值为V1和V2;
步骤2:构造动态赋权函数f(V),使得权重随着像素值的变化而变化,当像素值较小时,权重值增加较快;随着像素值的增加,权重值缓慢增加,其中,赋权函数构造原则是:
(1)f(V)是S型单调递增函数;
(2)f(V)的值域为[0,1];
(3)存在某一个拐点V*:
当V<V*时,反之,当V≥V*时,
步骤3:计算V1和V2对应的权重f1和f2;
步骤4:加权平滑处理后得到f1·V1+f2·V2。
本发明的有益效果如下:
1.处理效率高:
首帧区分式处理框架,只需对视频首帧进行SURF特征提取、匹配、校准和融合,较大提高了视频帧拼接的处理速度;将具有相同位置信息的SURF点进行一次哈希桶映射,大大缩小了匹配范围,较大提高了特征匹配的效率;
2.视频拼接效果好:
采用SURF特征进行坐标校准,克服了因图像平移、旋转、缩放和放射变换等因素造成的痕迹、模糊和重影现象;基于动态加权的视频帧融合方法,有效解决了因图像采集光照、视野等不同而造成的视频拼缝问题。
附图说明:
图1为本发明实施例提供的基于SURF特征跟踪匹配的全景视频自动拼接的步骤流程示意图;
图2为本发明实施例提供的面向视频帧的SURF特征快速提取的步骤流程示意图;
图3为本发明实施例提供的SURF特征点计算的步骤流程示意图;
图4为本发明实施例提供的哈希桶结构示意图;
图5为本发明实施例提供的基于哈希桶映射的SURF特征匹配的步骤流程示意图;
图6为本发明实施例提供的基于投影模型的视频坐标变换的步骤流程示意图;
图7为本发明实施例提供的基于动态加权的视频帧融合方法的步骤流程示意图。
具体实施方式:
依照以下的附图详细说明关于本发明的示例性实施例。
本发明实施例提供了一种基于SURF特征跟踪匹配的全景视频自动拼接方法,如图1所示,首先对该方法的如下流程进行简单介绍:
步骤1:针对两个待拼接视频,读取第i个视频帧;
步骤2:若i=1,即该帧为视频首帧,则进行第3步;否则,直接进行5步;
步骤3:针对两个视频首帧,快速提取SURF特征点,生成特征点描述向量;
步骤4:针对两个视频首帧,基于哈希映射和桶存储的方式,搜寻相似SURF特征向量点对,构成相似特征集合;
步骤5:基于投影模型的视频坐标变换,求解最佳数据关联度坐标系;
步骤6:基于动态加权的视频帧融合,将经过坐标变换的待拼接视频帧的像素值进行加权求和,实现视频的无缝拼接融合。
在本发明的技术方案实现过程中,如图2所示,面向视频帧的SURF特征快速提取,该开发过程包括:
步骤1:构造“4组5层”尺度空间。
利用不同模板尺寸盒子滤波近似不同尺度的二阶高斯微分滤波,建立高斯尺度空间。构造“4组5层”盒子滤波对原始图像进行过滤,设定a表示尺度空间坐标,第一组盒子尺度为a×a、k2a×k2a、k3a×k3a、k4a×k4a、k5a×k5a,第2~4组依次类推,其中k>1。
步骤2:针对第i组尺度空间,在每一层上随机采样n个样本点。
步骤3:计算第i组尺度空间的极值点,确定为SURF特征点。
如图3所示,首先,取第i组尺度空间的第j个采样点Sj;其次,判断若Sj是否是该组尺度空间所有样本点的最大值或最小值;最后,若是最大值或最小值,确定Sj为第i组尺度空间的SURF特征点,否则,重复计算第j+1个采样点Sj+1。
步骤4:计算特征点的主方向,生成特征点描述向量。
在本发明的技术方案实现过程中,如图4所示,构造了哈希桶结构,该哈希桶结构具有以下特征:
包含N个桶,每个桶高均是H;
构造了位置敏感哈希函数h(x);
h(x)是位置敏感的哈希函数,两个SURF特征点相对位置越近,则计算得到哈希值K相等的概率越大;
h(x)的哈希值K在[1,N]上服从均匀分布。
在本发明的技术方案实现过程中,如图5所示,基于哈希桶映射的SURF特征匹配方法,该开发过程包括:
步骤1:针对待拼接视频A和待拼接视频B,将其包含的所有SURF特征点分别进行哈希映射,分别计算对应Hash值;
步骤2:以哈希桶的方式存储具有相同哈希值的SURF特征点;
步骤3:针对任意哈希桶,计算桶内所有SURF特征点对(x,y)的欧式距离,其中,SURF特征点x属于待拼接视频A,SURF特征点y属于待拼接视频B;
步骤4:选取距离最小的作为最佳匹配特征点对。
在本发明的技术方案实现过程中,如图6所示,基于投影模型的视频坐标变换方法,该开发过程包括:
步骤1:根据视频图像存在的投影变换关系,确定最佳数据关联度坐标系矩阵H。采用射影变换,2幅待拼接视频SURF特征点满足如下变换关系:
x i &prime; y i &prime; 1 = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 1 x i y i 1
其中,(xi,yi)为第i对匹配特征点对,通过变换矩阵后,得到变换后的对应特征点(xi',yi'),需要根据样本特征点估计H中的8个参数。
步骤2:将SURF特征点对分成K=N/M层,其中N为总的特征点对数目,M为每层特征点对数目。
步骤3:针对任意一层,从SURF特征点对中随机抽取4对特征点,计算H。
步骤4:设定误差阈值L,并用其它特征点对(xi,yi)来检验模型矩阵H,计算变换误差ε,若某一特征点对(xi,yi)的εi≤L,则将其归为内点;否则,归为外点。
步骤5:重复步骤3、步骤4,直到计算所有K层,找出K层中内点数量最多的为最佳数据关联度坐标系矩阵H。
在本发明的技术方案实现过程中,如图7所示,基于动态加权的视频帧融合方法,该开发过程包括:
步骤1:设I1和I2为两幅待拼接的图像的重叠部分,I1和I2对应的像素值为V1和V2。
步骤2:构造动态赋权函数f(V),使得权重随着像素值的变化而变化,当像素值较小时,权重值增加较快;随着像素值的增加,权重值缓慢增加。赋权函数构造原则是:
①f(V)是S型单调递增函数;
②f(V)的值域为[0,1];
③存在某一个拐点V*:
当V<V*时,反之,当V≥V*时,
步骤3:计算V1和V2对应的权重f1和f2;
步骤4:加权平滑处理后得到f1·V1+f2·V2。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。以上所述仅为本发明示意性的具体实施方式,并非用以限定本发明的范围,任何本领域的技术人员在不脱离本发明构思和原则的前提下所做出的等同变化与修改,均应属于本发明保护的范围。

Claims (8)

1.一种基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,包含以下步骤:
步骤一:
针对两个或者多个待衔接视频,分别读取两个或者多个视频的首帧图像;
步骤二:
对首帧图像进行SURF特征快速提取,生成SURF特征点描述向量,其中,所述SURF特征是一种基于尺度空间的、对图像平移、旋转、缩放和放射变换保持鲁棒性的图像局部特征;
步骤三:
进行基于哈希桶映射的SURF特征匹配,即对待拼接视频的首帧图像,基于哈希映射和桶存储的方式,搜寻相似SURF特征向量点对,构成相似特征集合;
步骤四:
进行基于投影模型的视频坐标变换,利用相似SURF特征集合中的向量点对,求解最佳数据关联度坐标系模型;
步骤五:
进行基于动态加权的视频帧融合,将经过坐标变换的待拼接视频帧的像素值进行加权求和,实现视频的无缝拼接融合;
步骤六:
读取两个或者多个待衔接视频的后续帧图像,直接进行步骤四和步骤五。
2.根据权利要求1所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述待衔接视频的数量为两个,分别为待拼接视频A和待拼接视频B。
3.根据权利要求1或2所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述步骤二中的SURF特征快速提取,包括以下步骤:
步骤1:构造“4组5层”尺度空间;
利用不同模板尺寸盒子滤波近似不同尺度的二阶高斯微分滤波,建立高斯尺度空间,构造“4组5层”盒子滤波对原始图像进行过滤,设定a表示尺度空间坐标,第一组盒子尺度为a×a、k2a×k2a、k3a×k3a、k4a×k4a、k5a×k5a,第2~4组依次类推,其中k>1;
步骤2:针对第i组尺度空间,在每一层上随机采样n个样本点;
步骤3:计算第i组尺度空间的极值点,确定为SURF特征点;
首先,取第i组尺度空间的第j个采样点Sj;其次,判断若Sj是否是该组尺度空间所有样本点的最大值或最小值;最后,若是最大值或最小值,确定Sj为第i组尺度空间的SURF特征点,否则,重复计算第j+1个采样点Sj+1;
步骤4:计算特征点的主方向,生成特征点描述向量。
4.根据权利要求2所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述步骤二还包括以下步骤:构造“4组5层”尺度空间的盒子滤波器对原始图像过滤;基于相邻尺度比较的SURF特征点选取;计算以特征点为圆心、6倍尺度为半径的圆形邻域内图像Haar小波响应,设定特征点的主方向,生成特征点描述向量。
5.根据权利要求2所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述步骤三中的哈希桶包含多个桶,桶数为N,每个桶高相等且记为H,依据哈希桶构造位置敏感哈希函数h(x),其中h(x)是位置敏感的哈希函数,两个SURF特征点相对位置越近,则计算得到哈希值K相等的概率越大;h(x)的哈希值K在[1,N]上服从均匀分布。
6.根据权利要求5所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述步骤三中的基于哈希桶映射的SURF特征匹配,包括以下步骤:
步骤1:针对待拼接视频A和待拼接视频B,将其包含的所有SURF特征点分别进行哈希映射,分别计算对应哈希值;
步骤2:以哈希桶的方式存储具有相同哈希值的SURF特征点;
步骤3:针对任意哈希桶,计算桶内所有SURF特征点对(x,y)的欧式距离,其中,SURF特征点x属于待拼接视频A,SURF特征点y属于待拼接视频B;
步骤4:选取距离最小的作为最佳匹配特征点对。
7.根据权利要求6所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述在步骤四中的基于投影模型的视频坐标变换,包括以下步骤:
步骤1:根据视频图像存在的投影变换关系,确定最佳数据关联度坐标系矩阵H。采用射影变换,2幅待拼接视频SURF特征点满足如下变换关系:
x i &prime; y i &prime; 1 = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 1 x i y i 1
其中,(xi,yi)为第i对匹配特征点对,通过变换矩阵后,得到变换后的对应特征点(x′i,y′i),需要根据样本特征点估计矩阵H中的8个参数;
步骤2:将SURF特征点对分成K=N/M层,其中N为总的特征点对数目,M为每层特征点对数目;
步骤3:针对任意一层,从SURF特征点对中随机抽取4对特征点,计算矩阵H;
步骤4:设定误差阈值L,并用其它特征点对(xi,yi)来检验模型矩阵H,计算变换误差ε,若某一特征点对(xi,yi)的εi≤L,则将其归为内点;否则,归为外点;
步骤5:重复步骤3、步骤4,直到计算所有K层,找出K层中内点数量最多的为最佳数据关联度坐标系矩阵H。
8.根据权利要求7所述的基于SURF特征跟踪匹配的全景视频自动拼接方法,其特征在于,所述在步骤五中的基于动态加权的视频帧融合,包括以下步骤:
步骤1:设I1和I2为两幅待拼接的图像的重叠部分,I1和I2对应的像素值为V1和V2;
步骤2:构造动态赋权函数f(V),使得权重随着像素值的变化而变化,当像素值较小时,权重值增加较快;随着像素值的增加,权重值缓慢增加,其中,赋权函数构造原则是:
(1)f(V)是S型单调递增函数;
(2)f(V)的值域为[0,1];
(3)存在某一个拐点V*:
当V<V*时,反之,当V≥V*时,
步骤3:计算V1和V2对应的权重f1和f2;
步骤4:加权平滑处理后得到f1·V1+f2·V2。
CN201511026932.4A 2015-12-31 2015-12-31 一种基于surf特征跟踪匹配的全景视频自动拼接方法 Active CN105787876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511026932.4A CN105787876B (zh) 2015-12-31 2015-12-31 一种基于surf特征跟踪匹配的全景视频自动拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511026932.4A CN105787876B (zh) 2015-12-31 2015-12-31 一种基于surf特征跟踪匹配的全景视频自动拼接方法

Publications (2)

Publication Number Publication Date
CN105787876A true CN105787876A (zh) 2016-07-20
CN105787876B CN105787876B (zh) 2019-01-04

Family

ID=56390389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511026932.4A Active CN105787876B (zh) 2015-12-31 2015-12-31 一种基于surf特征跟踪匹配的全景视频自动拼接方法

Country Status (1)

Country Link
CN (1) CN105787876B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108737743A (zh) * 2017-04-14 2018-11-02 中国科学院苏州纳米技术与纳米仿生研究所 基于图像拼接的视频拼接装置及视频拼接方法
CN109068207A (zh) * 2018-07-04 2018-12-21 广州希脉创新科技有限公司 一种耳机及耳机系统
CN109376256A (zh) * 2018-09-29 2019-02-22 京东方科技集团股份有限公司 图像搜索方法及装置
CN111008621A (zh) * 2020-03-10 2020-04-14 浙江清鹤科技有限公司 对象追踪方法、装置、计算机设备和存储介质
CN111383204A (zh) * 2019-12-19 2020-07-07 北京航天长征飞行器研究所 视频图像融合方法、融合装置、全景监控系统及存储介质
CN111757062A (zh) * 2020-06-29 2020-10-09 郑州信大捷安信息技术股份有限公司 一种视频流的高效安全传输方法和系统
CN113947526A (zh) * 2020-07-16 2022-01-18 四川大学 一种改进尺度不变特征变换的快速拼接方法
CN116452426A (zh) * 2023-06-16 2023-07-18 广汽埃安新能源汽车股份有限公司 一种全景图拼接方法及装置
CN117876182A (zh) * 2023-12-25 2024-04-12 山东高速股份有限公司 一种基于多源数据分析的高速公路养护决策管理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法
CN103426186A (zh) * 2013-09-05 2013-12-04 山东大学 一种改进的surf快速匹配方法
CN103856727A (zh) * 2014-03-24 2014-06-11 北京工业大学 一种多路实时视频拼接处理系统
CN103997609A (zh) * 2014-06-12 2014-08-20 四川川大智胜软件股份有限公司 基于cuda的多视频实时全景融合拼接方法
CN104156965A (zh) * 2014-08-13 2014-11-19 徐州工程学院 一种矿井监控图像自动快速拼接方法
CN104376548A (zh) * 2014-11-07 2015-02-25 中国电子科技集团公司第二十八研究所 一种基于改进型surf算法的图像快速拼接方法
CN104778675A (zh) * 2015-04-28 2015-07-15 中国矿业大学 一种采煤综掘工作面动态视频图像融合方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法
CN103426186A (zh) * 2013-09-05 2013-12-04 山东大学 一种改进的surf快速匹配方法
CN103856727A (zh) * 2014-03-24 2014-06-11 北京工业大学 一种多路实时视频拼接处理系统
CN103997609A (zh) * 2014-06-12 2014-08-20 四川川大智胜软件股份有限公司 基于cuda的多视频实时全景融合拼接方法
CN104156965A (zh) * 2014-08-13 2014-11-19 徐州工程学院 一种矿井监控图像自动快速拼接方法
CN104376548A (zh) * 2014-11-07 2015-02-25 中国电子科技集团公司第二十八研究所 一种基于改进型surf算法的图像快速拼接方法
CN104778675A (zh) * 2015-04-28 2015-07-15 中国矿业大学 一种采煤综掘工作面动态视频图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BAY H, ESS A, TUYTELAARS T, ET AL.: "Speeded-up robust features (SURF)", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
宋延爽,耿楠: "基于SURF算法的全景图拼接技术研究与实现", 《计算机工程与设计》 *
林武,洪景新,张昊,李琳: "快速有效的视频图像序列拼接方法", 《计算机工程与应用》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108737743A (zh) * 2017-04-14 2018-11-02 中国科学院苏州纳米技术与纳米仿生研究所 基于图像拼接的视频拼接装置及视频拼接方法
CN108737743B (zh) * 2017-04-14 2021-03-23 中国科学院苏州纳米技术与纳米仿生研究所 基于图像拼接的视频拼接装置及视频拼接方法
CN109068207A (zh) * 2018-07-04 2018-12-21 广州希脉创新科技有限公司 一种耳机及耳机系统
CN109068207B (zh) * 2018-07-04 2023-05-09 广州希脉创新科技有限公司 一种耳机及耳机系统
US11080553B2 (en) 2018-09-29 2021-08-03 Boe Technology Group Co., Ltd. Image search method and apparatus
CN109376256A (zh) * 2018-09-29 2019-02-22 京东方科技集团股份有限公司 图像搜索方法及装置
CN111383204A (zh) * 2019-12-19 2020-07-07 北京航天长征飞行器研究所 视频图像融合方法、融合装置、全景监控系统及存储介质
CN111008621A (zh) * 2020-03-10 2020-04-14 浙江清鹤科技有限公司 对象追踪方法、装置、计算机设备和存储介质
CN111757062A (zh) * 2020-06-29 2020-10-09 郑州信大捷安信息技术股份有限公司 一种视频流的高效安全传输方法和系统
CN113947526A (zh) * 2020-07-16 2022-01-18 四川大学 一种改进尺度不变特征变换的快速拼接方法
CN113947526B (zh) * 2020-07-16 2023-04-18 四川大学 一种改进尺度不变特征变换的快速拼接方法
CN116452426A (zh) * 2023-06-16 2023-07-18 广汽埃安新能源汽车股份有限公司 一种全景图拼接方法及装置
CN116452426B (zh) * 2023-06-16 2023-09-05 广汽埃安新能源汽车股份有限公司 一种全景图拼接方法及装置
CN117876182A (zh) * 2023-12-25 2024-04-12 山东高速股份有限公司 一种基于多源数据分析的高速公路养护决策管理方法

Also Published As

Publication number Publication date
CN105787876B (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
Sun et al. Drone-based RGB-infrared cross-modality vehicle detection via uncertainty-aware learning
CN105787876A (zh) 一种基于surf特征跟踪匹配的全景视频自动拼接方法
CN103325112B (zh) 动态场景中运动目标快速检测方法
Chen et al. Surrounding vehicle detection using an FPGA panoramic camera and deep CNNs
CN105957007A (zh) 基于特征点平面相似度的图像拼接方法
CN108537844B (zh) 一种融合几何信息的视觉slam回环检测方法
Shi et al. Accurate 3-DoF camera geo-localization via ground-to-satellite image matching
Chen et al. Panoramic annular SLAM with loop closure and global optimization
CN106097383A (zh) 一种针对遮挡问题的目标跟踪方法及设备
CN103955888A (zh) 一种基于sift的高清视频图像拼接方法及装置
CN105488777A (zh) 一种基于移动前景下全景图实时生成系统及其方法
Zhu et al. Arbitrary-oriented ship detection based on retinanet for remote sensing images
CN103733225B (zh) 特征点对等系统、特征点对等方法、以及记录介质
Haggui et al. Human detection in moving fisheye camera using an improved YOLOv3 framework
Haggui et al. Centroid human tracking via oriented detection in overhead fisheye sequences
Yu et al. Oriented object detection in aerial images based on area ratio of parallelogram
WO2021248564A1 (zh) 一种全景大数据应用监测管控系统
Jiang et al. Depth image-based obstacle avoidance for an in-door patrol robot
CN103903269B (zh) 球机监控视频的结构化描述方法和系统
Schneider Visual hull
Li et al. A real-time vehicle window positioning system based on nanodet
Zhang et al. Anchor-free network with guided attention for ship detection in aerial imagery
Zhou et al. LEDet: localization estimation detector with data augmentation for ship detection based on unmanned surface vehicle
Dong et al. An Intelligent Detection Method for Optical Remote Sensing Images Based on Improved YOLOv7.
Xie et al. Feature enhancement and alignment for oriented object detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210623

Address after: Room 690, 6th floor, 999 Changning Road, Changning District, Shanghai 200336

Patentee after: SHANGHAI GUIHE SOFTWARE TECHNOLOGY Co.,Ltd.

Address before: Room 801, building 67, 421 Hongcao Road, Xuhui District, Shanghai 200233

Patentee before: SHANGHAI YIBEN INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right