CN112149495B - 一种基于视差追踪的视频关键帧提取方法 - Google Patents

一种基于视差追踪的视频关键帧提取方法 Download PDF

Info

Publication number
CN112149495B
CN112149495B CN202010785920.4A CN202010785920A CN112149495B CN 112149495 B CN112149495 B CN 112149495B CN 202010785920 A CN202010785920 A CN 202010785920A CN 112149495 B CN112149495 B CN 112149495B
Authority
CN
China
Prior art keywords
frames
video
image
frame
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010785920.4A
Other languages
English (en)
Other versions
CN112149495A (zh
Inventor
许志华
逯行政
徐二帅
杨峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology Beijing CUMTB
Original Assignee
China University of Mining and Technology Beijing CUMTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology Beijing CUMTB filed Critical China University of Mining and Technology Beijing CUMTB
Priority to CN202010785920.4A priority Critical patent/CN112149495B/zh
Publication of CN112149495A publication Critical patent/CN112149495A/zh
Application granted granted Critical
Publication of CN112149495B publication Critical patent/CN112149495B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于视差分析的视频关键帧提取方法:聚焦管道、巷道等地下狭长密闭空间的单目视频三维重构需求,针对传统手动提取视频帧效率低、自动提取精度差的问题,设计一种基于视差追踪的视频关键帧提取方法。该方法采用由粗到精的关键帧提取策略。粗提取阶段以Tenengrad评价函数为基础,对视频帧进行模糊度评价,剔除严重模糊影像,引入自适应的取帧参数,避免提取模糊的冗余视频帧影像,提升粗提取的合理性;精提取阶段采用网格运动统计策略的特征匹配算法,实现实时的大量特征点高精度匹配,通过视差分析获取相机运动信息对视频帧进行分类,剔除静止、旋转等冗余帧,最后得到空间位置合理的适用于管道内壁三维重构需求的关键帧影像集。

Description

一种基于视差追踪的视频关键帧提取方法
技术领域
本发明涉及空间信息应用技术领域,具体涉及一种基于视差追踪的视频关键帧提取方法。
背景技术
城市地下管道是城市供水和排污的重要基础设施,关系到城市的可持续发展和人们的日常生活。基于运动恢复结构(Structure from Motion,SfM)的管道、巷道等狭长密闭空间三维重构能够同时获取三维几何结构和彩色纹理信息,可为及时准确的掌握地下重要基础设施质量、全面厘清其运行状态提供准确的数字模型。视频关键帧优选是决定视频三维重构模型精度和完整性的首要关键技术,是一个兼顾邻接图像拓扑几何关系以及图像质量等多个因素的复杂决策过程,一直是视觉匹配和三维重建研究的重点和难点。现有关于视频关键帧优选的研究可大致分为三类:即影像采集线路规划法、基于先验数据集的模拟与预测法和邻接影像拓扑几何要素分析法。
第一类方法最早采用“三步走”策略,即通过获取新影像、测试模型精度、调整相机位置和姿态的策略优化影像采集方案,经典的算法有VIO。随后,在获取少量有效影像的基础上,逐渐增加新的影像来增强测区重建点云的完整性和精度,典型的有模糊逻辑推理法,该类方法可靠性高但优化模型的构建存在困难,普适性差。而由于标注了大量先验信息的数据集的公开,借助机器学习的预测方法逐步用在关键视频帧的优选研究。Rongjun和Qin以双目立体影像重构的精度作为预测模型的损失函数,采用SVM分类器实现了卫星立体影像的优选。该类研究剔除了像平面交会角较小的影像对,且没有考虑基高比变化的情况,不适用于管道、巷道等地下狭长密闭空间的视频帧之间像平面交会角小、基高比变化明显的情况。在第三类研究中,通过分析邻接影像间的多个几何要素关系,设置合理的约束条件,构建影像重要性判断模型,在一系列冗余的影像序列中优选出部分最能保障三维重建精度的最小关键影像集。典型的模型有最小相机邻接矩阵、拓扑邻接矩阵、稀疏拓扑邻接矩阵,该类方法对于场景的应用类型具有较强的依赖性,随着场景、影像类型、观测模式等发生变化,场景迁移能力较弱。
近年来,李立春等人在每张影像上提取固定数量的特征点加以跟踪,通过计算特征点在相邻视频帧间的平均视差来表示相机的运动量,从而提取出距离合适的关键帧,提升了影像处理的实时性,对无人机视频、室内外录像等特征丰富的影像具有较高的适用性。但是该方法无法有效区分镜头的复杂运动姿态,不能剔除冗余帧。此外,管道、巷道等地下狭长密闭空间的视频帧之间像平面交会角小,纹理性较弱且重复性高,特征分布不均匀,对影像优选的模型预测提出了新的挑战。
本发明针对地下狭长密闭空间三维重建对视频关键帧提取的需求及难点,设计了一种基于视差追踪的视频关键帧提取方法。本发明采用由粗到精的视频帧提取策略。在粗提取阶段,对视频帧进行模糊度评价,剔除严重模糊影像,引入基于模糊度的自适应提帧参数,提高影像分析效率;在精提取阶段,在传统邻域一致性分析的基础上,通过格网划分,将对点分析改为对区域分析,实现实时的大量特征点匹配,有效提升影像特征匹配和视差获取的精度。通过分析视差获取相机运动信息对视频帧进行分类,剔除静止、旋转等冗余帧,最后得到空间位置合理的三维模型重建时需要的关键帧。该专利可满足地下狭长密闭空间三维重建时对于视频关键帧自动、高精度提取的需求。
发明内容
(一)解决的技术问题
本发明所要解决的技术问题是:针对管道、巷道等地下狭长密闭空间的视频关键帧手动提取过于费时费力,自动提取精度较差的问题,设计一种基于视差追踪的视频关键帧提取方法。该方法采用由粗到精的关键帧提取策略。粗提取阶段以Tenengrad评价函数为基础,对视频帧进行模糊度评价,剔除严重模糊影像,引入自适应的提帧参数,避免提取模糊的冗余视频帧影像;精提取阶段采用网格运动统计策略的特征匹配算法,实现实时的大量特征点高精度匹配,通过分析视差获取相机运动信息对视频帧进行分类,剔除静止、旋转等冗余帧,最后得到空间位置合理的三维模型重建时需要的关键帧。
(二)技术方案
1.基于影像模糊度评价的关键帧粗提取
由于管道内部地形复杂、光线昏暗等不利因素,导致通过机器人上搭载的小型摄像机获得的地下狭长密闭空间视频帧质量参差不齐,存在大量轻微模糊视频帧和部分严重模糊视频帧,会导致后续视频帧影像匹配出现较大的偏差。此外,相邻视频帧间重叠度过大,对全部视频帧进行匹配则耗时多,效率低。针对以上问题,本专利提出基于影像模糊度评价的关键帧粗提取框架。具体地,以Tenengrad评价函数为基础,对视频帧进行模糊度评价,剔除严重模糊影像,引入自适应的提帧参数,保证视频关键帧粗提取的合理性。具体实现步骤如下:
1)模糊度评价和计算自适应提帧参数。使用Tenengrad评价函数对视频帧进行影像模糊度评价,计算出整体平均模糊度Vs,由Vs的大小确定候选帧集的截取频率fs,fs表示每秒截取的视频帧数量。本发明中,Vs值越大,则截取候选视频帧的频率fs越小。
2)剔除严重模糊视频帧。在候选帧集中,通过测定各视频帧影像与Vs所对应的相对模糊度来区分影像模糊等级,删除因模糊程度较高导致去模糊效果较差的影像,标记轻微模糊影像,后续进行去模糊优化处理,提高影像整体质量。
2.基于影像视差分析的关键帧精提取
基于影像模糊度评价的粗提取主要考虑提取视频帧影像的质量,而没有考虑提取视频帧对立体匹配和三维重建精度的几何需求。然而,管道、巷道等地下狭长密闭空间视域狭窄、内部环境复杂导致视频机器人运动速度不一,为探清管道内壁的成像情况,需对摄像头进行抬升、旋转,导致大量邻接视频帧间存在基线过短(如静止)、像平面交会角过大(如抬升、旋转)等现象,这类视频帧会因匹配特征的重投影误差过大导致三维重建失败,需进行精确剔除。针对以上问题,本专利提出了基于视差分析的关键帧精提取框架,首先采用网格运动统计策略的特征匹配算法,实现实时的大量特征点高精度匹配,通过分析视差获取相机运动信息对视频帧进行分类,剔除静止、旋转等冗余帧,最后得到空间位置合理的三维模型重建时需要的关键帧。具体方法如下:
1)采用网格运动统计策略的特征匹配算法(GMS),在传统邻域一致性分析的基础上,通过格网划分,将对点分析改为对区域分析,实现实时的大量特征点高精度匹配。
2)计算相邻视频帧间的视差长度L来近似的表示相机运动量,设置视差阈值Lmin来限制相邻关键帧基线过短的情况,剔除机器人停止运动时相机拍摄的静止帧。
3)设计镜头运动模型,计算影像在水平和垂直方向上的平均位移Xm和Ym,分析视差矢量,定位镜头持续抬升和旋转的视频帧位置,从而获取镜头抬升和下降之间的旋转帧的位置,一并剔除。
4)采用维纳滤波法对将失焦的轻微模糊影像进行去模糊优化处理,最终获得视频关键帧集合。
(三)有益效果
1、利用本发明,能够实现地下狭长密闭空间视频关键帧的高效自动提取。
2、利用本发明,能够为地下管道三维模型重建提供高质量的关键帧数据。
附图说明
图1基于视差追踪的视频关键帧提取方法程图。
图2基于网格划分的邻域一致性分析示意图。
图3去静止冗余帧算法示意图。
图4镜头复杂运动模型示意图。
图5复杂冗余帧定位算法示意图。
具体实施方式
1.基于影像模糊度评价的关键帧粗提取
关键帧粗提取阶段,使用Tenengrad评价函数对视频帧进行模糊度评价,获取初始帧集的截取频率,并剔除严重模糊影像,具体实施方式如下:
步骤1:本发明采用的模糊度评价方式为基于梯度的Tenengrad评价函数。首先,函数采用Sobel算子提取出垂直和水平方向的梯度值,计算出图像在点(x,y)的梯度S(x,y),如式(1)。
其中,Gx、Gy表示Sobel算子横向和纵向的卷积核,I(x,y)表示以点(x,y)为中心的3*3 像元灰度值矩阵。计算经卷积处理后的影像的平均灰度值,记为Ten,如式(2)。Ten值越大,代表图像越清晰。
通过对全体视频帧进行抽样模糊度评价,计算出整体平均模糊度Vs,Vs的大小反应视频帧的整体清晰度质量,视频帧越清晰,三维模型重建所限制的相邻视频帧最大基线长度越长,所需要的视频帧数量越少。根据Vs的大小确定粗提取的视频帧截取频率fs,fs表示每秒截取的视频帧数量,Vs越大fs越小。以fs作为截取频率对原始视频进行粗提取,更为合理地剔除大部分由视频自身频率过高所造成的重复影像。
步骤2:根据视频整体平均模糊度Vs的大小设定影像模糊度分级阈值Vmin和Vmid(Vmin<Vmid<Vs),其中模糊度低于Vmin的被视为严重模糊影像,因去模糊处理对其效果不佳而直接删除,Vmin至Vmid的部分后续通过去模糊处理进行优化。
至此,完成基于影像模糊度评价的关键帧粗提取工作,其中在等间距取帧的基础上引入与影像模糊度相关的自适应取帧参数,提高粗提取时候选帧集的合理性,严重模糊帧的剔除提升了影像整体质量。
2.基于影像视差分析的关键帧精提取
本发明采用影像视差分析策略来完成关键帧的精提取工作。基于影像模糊度评价的粗提取只能获取剔除模糊影像和重复影像的初始候选帧集。为了确保视频帧匹配及三维重建的可靠性,需提取几何结构和位姿关系合理的视频帧。具体地,首先采用网格运动统计策略的特征匹配算法,实现实时的大量特征点高精度匹配,通过分析视差获取相机运动信息对视频帧进行分类,剔除静止、旋转等冗余帧,最后得到空间位置合理的三维模型重建时需要的关键帧。具体方法如下:
步骤1:点特征提取与匹配。如图2所示,在传统邻域一致性分析的基础上,通过格网划分,将对点分析改为对区域分析,实现实时的大量特征点匹配。针对特征匹配,本发明采用由粗到精的匹配策略。
粗匹配阶段,采用ORB快速特征点提取算法对每张影像提取大量特征点,然后通过Brute-Force匹配算法进行匹配,获取足够多的点匹配信息服务于后续的邻域一致性分析工作当中,增强匹配精确度。
精匹配基于运动平滑性原理,即真匹配具有一定邻域支持度,通过对视频帧进行规则格网划分,构建特征与邻域空间特征邻接关系,统计邻域特征数量与梯度方向等信息,从而构建图像邻域一致性约束,剔除错匹配。
步骤2:去静止冗余帧。首先以候选帧集的第一帧影像P作为已知关键帧Ta,将下一帧设为侯选关键帧Tb,计算两帧之间的平均视差L,详见式(3)。
其中,n为点特征匹配数,(xai,yai)、(xbi,ybi)分别为Ta和Tb对应的特征点坐标。
设置视差阈值Lmin限制相邻关键帧基线过短的情况,比较L与Lmin的大小,若L>Lmin,则认定Tb为关键帧,将其设为新的已知关键帧Ta,然后进行下一轮的视差分析;若L<Lmin,则剔除该候选帧,将下一帧设为新的Tb,继续视差比较,直到满足条件的关键帧出现。详细算法如图3所示。
步骤3:去旋转、抬升和下降冗余帧。分析镜头抬升和旋转时的匹配结果,表明可以通过影像在水平和垂直方向上的平均位移Xm和Ym来区分镜头的真实运动状态。镜头抬升时,Xm近乎为零,而Ym较大,下降时同理;旋转时,影像左右两侧的特征点运动趋势呈对称现象,通过图像分区分析能判断出旋转视频帧。
通过分析镜头在整个地下管道中的行进状态可知,虽然旋转部分难以单独判断,但旋转前后的镜头持续抬升和下降部分较为稳定,可通过确定这两部分的视频帧位置来间接判断旋转部分的冗余帧,将抬升和下降之间的所有视频帧同一剔除即可,模型如图4所示。
为排除镜头前进过程中零散抬升和下降帧的干扰,将判定条件设为连续m帧以上满足镜头抬升和下降;为排除旋转部分中穿插的少量持续抬升和下降帧,需要对抬升帧之前和下降帧之后的k帧进行约束,增强算法鲁棒性。其中,m和k为常数,一般都取5。详细算法如图 5。
步骤4:失焦影像去模糊优化。本专利采用维纳滤波法对失焦影像进行去模糊处理,首先定义一个系统,如式(6)所示:
y(t)=h(t)*x(t)+n(t) (6)
其中,y(t)是最终的成像结果,即我们得到的初始照片,h(t)是相机线性不变的脉冲响应系统,x(t)是指在t时刻的信号输入,n(t)指加性噪声,与输入信号无关。目标是计算出卷积函数g(t),如式(7)所示,使得是x(t)的最小均方差估计。
至此,完成基于视差分析的关键帧精提取工作,获得最终的视频关键帧集合。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于视差追踪的视频关键帧提取方法,其特征在于,该方法包括:
1)基于影像模糊度评价的关键帧粗提取;
2)基于影像视差分析的关键帧精提取;
其中,所述的基于影像模糊度评价的关键帧粗提取包含以下几个步骤:
1.1)采用的模糊度评价方式为基于梯度的Tenengrad评价函数:首先,函数采用Sobel算子提取出垂直和水平方向的梯度值,利用式(1)计算出图像在点(x,y)的梯度S(x,y);
其中,Gx、Gy表示Sobel算子横向和纵向的卷积核,I(x,y)表示以点(x,y)为中心的3*3像元灰度值矩阵;计算经卷积处理后的影像的平均灰度值,记为Ten,如式(2);Ten值越大,代表图像越清晰;
通过对全体视频帧进行抽样模糊度评价,计算出整体平均模糊度Vs,Vs的大小反应视频帧的整体清晰度质量,视频帧越清晰,三维模型重建所限制的相邻视频帧最大基线长度越长,所需要的视频帧数量越少;根据Vs的大小确定粗提取的视频帧截取频率fs,fs表示每秒截取的视频帧数量,Vs越大fs越小;以fs作为截取频率对原始视频进行粗提取,更为合理地剔除由视频自身频率过高所造成的重复影像;
1.2)根据视频平均模糊度Vs的大小设定影像模糊度分级阈值Vmin和Vmid,Vmin<Vmid<Vs,其中模糊度低于Vmin的被视为严重模糊影像,因去模糊处理对其效果不佳而直接删除,Vmin至Vmid的部分后续通过去模糊处理进行优化;
其中,基于影像视差分析的关键帧精提取,包含以下几个步骤:
2.1)点特征提取与匹配:在邻域一致性分析的基础上,通过格网划分,将对点分析改为对区域分析,实现实时的特征点高精度匹配;针对特征匹配,采用由粗到精的匹配策略;
粗匹配阶段,采用ORB快速特征点提取算法对每张影像提取特征点,然后通过Brute-Force匹配算法进行匹配,获取点匹配信息服务于后续的邻域一致性分析工作当中;
精匹配基于运动平滑性原理,即真匹配具有邻域支持度,通过对视频帧进行规则格网划分,构建特征与邻域空间特征邻接关系,统计邻域特征数量与梯度方向信息,从而构建图像邻域一致性约束,剔除错匹配;
2.2)去静止冗余帧:首先以候选帧集的第一帧影像P作为已知关键帧Ta,将下一帧设为侯选关键帧Tb,利用式(3)计算两帧之间的平均视差L;
其中,n为点特征匹配数,(xai,yai)、(xbi,ybi)分别为Ta和Tb对应的特征点坐标;
设置视差阈值Lmin限制相邻关键帧基线过短的情况,比较L与Lmin的大小,若L>Lmin,则认定Tb为关键帧,将其设为新的已知关键帧Ta,然后进行下一轮的视差分析;若L<Lmin,则剔除该候选帧,将下一帧设为新的Tb,继续视差比较,直到满足条件的关键帧出现;
2.3)去旋转、抬升和下降冗余帧:分析镜头抬升和旋转时的匹配结果,表明可以通过影像在水平和垂直方向上的平均位移Xm和Ym来区分镜头的真实运动状态;镜头抬升或下降时,Ym>Xm,Xm≈0;旋转时,影像左右两侧的特征点运动趋势呈对称现象,通过图像分区分析能判断出旋转视频帧;
通过分析镜头在整个地下管道中的行进状态可知,虽然旋转部分难以单独判断,但旋转前后的镜头持续抬升和下降部分较为稳定,可通过确定这两部分的视频帧位置来间接判断旋转部分的冗余帧,将抬升和下降之间的所有视频帧同一剔除即可;
为排除镜头前进过程中零散抬升和下降帧的干扰,将判定条件设为连续m帧以上满足镜头抬升和下降;为排除旋转部分中穿插的持续抬升和下降帧,需要对抬升帧之前和下降帧之后的k帧进行约束,其中,m和k为常数,取值为5;
2.4)失焦影像去模糊优化:采用维纳滤波法对失焦影像进行去模糊处理,首先定义一个系统,如式(6)所示:
y(t)=h(t)*x(t)+n(t) (6)
其中,y(t)是最终的成像结果,即初始照片,h(t)是相机线性不变的脉冲响应系统,x(t)是指在t时刻的信号输入,n(t)指加性噪声,与输入信号无关;目标是计算出卷积函数g(t),如式(7)所示,使得是x(t)的最小均方差估计,
CN202010785920.4A 2020-08-07 2020-08-07 一种基于视差追踪的视频关键帧提取方法 Active CN112149495B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010785920.4A CN112149495B (zh) 2020-08-07 2020-08-07 一种基于视差追踪的视频关键帧提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010785920.4A CN112149495B (zh) 2020-08-07 2020-08-07 一种基于视差追踪的视频关键帧提取方法

Publications (2)

Publication Number Publication Date
CN112149495A CN112149495A (zh) 2020-12-29
CN112149495B true CN112149495B (zh) 2023-07-28

Family

ID=73887786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010785920.4A Active CN112149495B (zh) 2020-08-07 2020-08-07 一种基于视差追踪的视频关键帧提取方法

Country Status (1)

Country Link
CN (1) CN112149495B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113840159A (zh) * 2021-09-26 2021-12-24 北京沃东天骏信息技术有限公司 视频处理方法、装置、计算机系统及可读存储介质
CN114513607B (zh) * 2022-01-27 2022-11-11 中南大学 一种高温工业内窥镜视场范围自调整方法、装置及系统
CN117478929B (zh) * 2023-12-28 2024-03-08 昆明中经网络有限公司 一种基于ai大模型的新媒体精品影像处理系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010081094A2 (en) * 2009-01-09 2010-07-15 The Johns Hopkins University A system for registration and information overlay on deformable surfaces from video data
CN109785419A (zh) * 2018-12-28 2019-05-21 武汉大学 基于orbslam的无人机视频影像实时定向与生成稀疏点云的方法
CN109800824A (zh) * 2019-02-25 2019-05-24 中国矿业大学(北京) 一种基于计算机视觉与机器学习的管道缺陷识别方法
CN110319772A (zh) * 2019-07-12 2019-10-11 上海电力大学 基于无人机的视觉大跨度测距方法
CN111126148A (zh) * 2019-11-25 2020-05-08 长光卫星技术有限公司 一种基于视频卫星影像的dsm生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010081094A2 (en) * 2009-01-09 2010-07-15 The Johns Hopkins University A system for registration and information overlay on deformable surfaces from video data
CN109785419A (zh) * 2018-12-28 2019-05-21 武汉大学 基于orbslam的无人机视频影像实时定向与生成稀疏点云的方法
CN109800824A (zh) * 2019-02-25 2019-05-24 中国矿业大学(北京) 一种基于计算机视觉与机器学习的管道缺陷识别方法
CN110319772A (zh) * 2019-07-12 2019-10-11 上海电力大学 基于无人机的视觉大跨度测距方法
CN111126148A (zh) * 2019-11-25 2020-05-08 长光卫星技术有限公司 一种基于视频卫星影像的dsm生成方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JiaWang Bian等.GMS: Grid-based Motion Statistics for Fast, Ultra-robust Feature Correspondence.《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》.2017,4181-4189. *
Miao Wang等.Deep Online Video Stabilization With Multi-Grid Warping Transformation Learning.《IEEE TRANSACTIONS ON IMAGE PROCESSING》.2019,第28卷(第05期),2283-2292. *
Zhihua Xu等.Monocular Video Frame Optimization Through Feature-Based Parallax Analysis for 3D Pipe Reconstruction.《Photogrammetric Engineering & Remote Sensing》.2022,第88卷(第07期),469-478. *
余杰.基于ORB关键帧闭环检测算法的SLAM方法研究.《中国优秀硕士学位论文全文数据库_信息科技辑》.2017,I138-890. *
范江.基于视频卫星影像的DSM生成技术研究.《中国优秀硕士学位论文全文数据库_工程科技Ⅱ辑》.2020,C028-115. *

Also Published As

Publication number Publication date
CN112149495A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
CN112149495B (zh) 一种基于视差追踪的视频关键帧提取方法
CN112070818B (zh) 基于机器视觉的机器人无序抓取方法和系统及存储介质
CN110569704A (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN112116576B (zh) 基于偏振结构光成像和改进的缺陷检测方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN110992381A (zh) 一种基于改进Vibe+算法的运动目标背景分割方法
CN111652085A (zh) 基于2d与3d特征结合的物体识别方法
CN107369204B (zh) 一种从单幅照片恢复出场景基本三维结构的方法
CN113450410B (zh) 一种基于对极几何的单目深度和位姿联合估计方法
CN108009494A (zh) 一种基于无人机的道路交叉口车辆跟踪方法
CN109559324A (zh) 一种线阵图像中的目标轮廓检测方法
Warburg et al. Nerfbusters: Removing ghostly artifacts from casually captured nerfs
CN107240073A (zh) 一种基于梯度融合与聚类的三维视频图像修复方法
CN114677323A (zh) 一种室内动态场景下基于目标检测的语义视觉slam定位方法
WO2015181179A1 (en) Method and apparatus for object tracking and segmentation via background tracking
CN111986164A (zh) 一种基于多源Unet+Attention网络迁移的道路裂缝检测方法
Gao et al. A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images
CN113887624A (zh) 一种基于双目视觉的改进特征立体匹配方法
CN116205876A (zh) 基于多尺度标准化流的无监督笔记本外观缺陷检测方法
CN110516527B (zh) 一种基于实例分割的视觉slam回环检测改进方法
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN112801021B (zh) 基于多级语义信息的车道线检测方法及系统
CN112053385B (zh) 基于深度强化学习的遥感视频遮挡目标跟踪方法
Wang et al. Improving deep stereo network generalization with geometric priors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant