CN110796010B - 一种结合光流法和卡尔曼滤波的视频稳像方法 - Google Patents

一种结合光流法和卡尔曼滤波的视频稳像方法 Download PDF

Info

Publication number
CN110796010B
CN110796010B CN201910931461.3A CN201910931461A CN110796010B CN 110796010 B CN110796010 B CN 110796010B CN 201910931461 A CN201910931461 A CN 201910931461A CN 110796010 B CN110796010 B CN 110796010B
Authority
CN
China
Prior art keywords
video
frame
motion
calculation formula
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910931461.3A
Other languages
English (en)
Other versions
CN110796010A (zh
Inventor
熊炜
王传胜
李敏
王娟
刘敏
曾春艳
李利荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN201910931461.3A priority Critical patent/CN110796010B/zh
Publication of CN110796010A publication Critical patent/CN110796010A/zh
Application granted granted Critical
Publication of CN110796010B publication Critical patent/CN110796010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种结合光流法和卡尔曼滤波的视频稳像方法,首先在预稳定阶段,通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵,并将其作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出。然后对预稳定视频帧进行Shi‑Tomasi角点检测,并对角点进行LK角点跟踪;随后利用RANSAC算法估计全局运动;再使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;最后由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频;本发明采用光流法预稳定视频,使得视频内部运动减小,使得运动效果更好;本发明采用卡尔曼滤波器平滑相机路径,使得内部运动路径更加平滑。从而使得抖动视频更加稳定。

Description

一种结合光流法和卡尔曼滤波的视频稳像方法
技术领域
本发明属于数字图像视频处理技术领域,涉及一种视频稳像方法,特别是涉及一种结合光流法和卡尔曼滤波的视频稳像方法。
背景技术
随着当今自媒体的发展,通过智能设备拍摄短视频已经成为人们记录生活的主流方式。虽然当今部分品牌手机内部嵌入防抖摄像功能,但是在手持移动设备拍摄视频的过程中,由于外在相关条件的影响,拍摄的视频依旧很不稳定。视频稳像技术的目的主要是消除或减少视频的抖动,提高视频图像质量。
视频稳像算法通常包含2D方法、2.5D方法和3D方法。3D方法通常用于耗时的三维重建。2.5D方法适用于专业拍摄设备。2D方法由于处理速度快以及有较好的鲁棒性,常被用于处理视频稳像问题。
视频稳像方法一般分成3个部分:运动估计、运动平滑和运动补偿。2D稳像中的相机运动估计先进行局部运动估计,再通过局部运动向量估计全局运动向量。局部运动估计方法主要包括两类:基于像素点的方法和基于特征点的方法。基于像素点的方法主要包括块匹配法、相位相关法、灰度投影法以及光流法等。块匹配法原理简单、实现方便,应用广泛,但是在有快速运动的场景中效果并不好;相位相关法是一种非线性的算法,基础原理是傅里叶变换,有较高的匹配精度,且具有一定的抗干扰能力,但是计算时间过长,不适用实时;光流法尽管不需要了解相关场景信息,就能准确地检测识别运动目标位置,但有计算量大,耗时长,对光线敏感等缺点。基于特征点的方法主要将高维的图像数据进行简化表达,常见方法包括角点检测法、斑点检测法、边检测法等。角点是指在某方面属性特别突出的点,一般角点检测法有Harris角点检测法、FSAT算法等。斑点检测主要对它周围图像像素灰度值大或者小的区域进行检测,常见方法有SIFT算法、SURF算法等。角点检测容易受噪声影响且对边缘信息提取的依赖性不足;斑点检测速度较慢,很难实时处理图像;边检测法针对复杂场景以及光照不均很难进行处理。
发明内容
本发明提出的一种结合光流法和卡尔曼滤波的视频稳像方法,主要针对手持设备拍摄的抖动视频问题,能够较好的解决视频抖动的问题。
本发明所采用的技术方案是:一种结合光流法和卡尔曼滤波的视频稳像方法,其特征在于,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
步骤2:对预处理后的视频帧进行Shi-Tomasi角点检测;
步骤3:对角点进行LK角点跟踪;
步骤4:利用RANSAC算法估计全局运动;
步骤5:使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频。
本发明提出了一种结合光流法和卡尔曼滤波的视频稳像算法,与现有算法相比,其显著优点在于:
(1)本发明采用光流法预稳定视频,使得视频内部运动减小,使得运动效果更好;
(2)本发明采用Shi-Tomasi算法检测特征点,检测出图像中梯度变化较大的点,再对相邻帧间的特征点进行跟踪,由此估计仿射变换。将帧间的仿射变换进行累积,得到相机的路径,从而准确计算相机路径;
(3)本发明采用卡尔曼滤波器平滑相机路径,使得内部运动路径更加平滑。从而使得抖动视频更加稳定;
(4)本发明采用原始相机路径原相机运动轨迹和平滑的运动轨迹之间的位置差异,求得相邻每帧的运动补偿,最后对每一帧进行运动补偿,从而达到稳定的视频。
附图说明
图1为本发明实施例的流程图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种结合光流法和卡尔曼滤波的视频稳像方法,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
本实施例中,预处理是通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵Ht,并将Ht作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出;
本实施例首先采用光流法跟踪所有视频帧上的角点。在第t帧的特征点表示为
Figure GDA0004177676870000031
对应的t+1帧的特征点为/>
Figure GDA0004177676870000032
求解每帧2D仿射变换矩阵Ht,使得二阶导数的平方积分最小化,具体计算公式为
Figure GDA0004177676870000033
其中,E(H)表示仿射变换矩阵二阶导数平方积分最小化。
步骤2:对预处理后的视频帧进行Shi-Tomasi角点检测;
角点也称极值点,是指像素变化较快的拐角位置或直线相交处。Shi-Tomasi角点是对Harris角点的改进,是一种局部特征检测方法,主要思想是通过改变移动窗口从而计算出窗口内灰度的变化。
假设I(u,v)表示为灰度图的灰度值,(u,v)表示移动窗口其中一点的像素坐标,当窗口移动(Δx,Δy)得到的灰度值变化具体计算公式为:
Figure GDA0004177676870000034
/>
其中,
Figure GDA0004177676870000035
表示窗口函数。
为了得到角点位置,只需要求E(Δx,Δy)的极大值即可。对灰度变换进行泰勒展开并舍去高阶项,具体计算公式为:
Figure GDA0004177676870000036
其中,M具体计算公式为:
Figure GDA0004177676870000037
其中,Ix,Iy分别表示x,y方向上的梯度值,
Figure GDA0004177676870000038
代表张量积运算。假设λ1和λ2为M的2个特征值,且给定一个阈值λ,如果某一点满足min(λ12)>λ,则存在Shi-Tomasi特征点;反之,则不存在特征点。
步骤3:对角点进行LK角点跟踪;
通过Shi-Tomasi角点检测后,需要对其进行跟踪。LK跟踪算法也称KLT跟踪算法,是常用的角点跟踪算法,也是一种以待跟踪窗口相邻帧间的灰度平方和(SSD)作为度量的匹配算法。
假设一个包含特征纹理信息的特征窗口W,设t时刻对应的视频帧用I(x,y,t)表示,t+τ时刻对应的视频帧用I(x,y,t+τ)表示,对应的位置具体计算公式为:
I(x,y,t+τ)=I(x-Δx,y-Δy,t);
其中,Δx,Δy为X(x,y)的偏移量。而在I(x,y,t+τ)中的每个像素点,都可以根据I(x,y,t)中相对应的像素点平移d(Δx,Δy)求得。
假设相邻帧I和J,为了找到能够使SSD(用ε表示)最小化的d。ε具体计算公式为:
Figure GDA0004177676870000041
其中,W是特征窗口,ω(X)是数值为1的权重系数,X表示视频帧运动位移,I(X)表示对应时刻的视频帧;
由于d通常远小于X,即可对J(X+d)进行泰勒展开,且去掉最高次项,仅保留前两项,而g是泰勒展开式的一阶泰勒系数。为了得到最佳匹配的角点,对最小化d求导化简得到具体计算公式为:
Figure GDA0004177676870000042
其中,gx是图像x方向的矩阵;gy是图像y方向的矩阵。
为了得到最优的匹配,对每个点进行牛顿迭代,求得最终解,具体计算公式为:
Figure GDA0004177676870000043
其中,dk表示第k次迭代所计算得到的d值,且初始值d0=0。
步骤4:利用RANSAC算法估计全局运动;
相邻帧间的复杂变换主要表现在相似变换、刚性变换、仿射变换等。本文采用仿射变换作为相邻帧间的全局运动,利用RANSAC算法估计出帧间的仿射变换矩阵。其数学模型可表示为:
Figure GDA0004177676870000051
其中,
Figure GDA0004177676870000052
是仿射变换矩阵,a11,a12,a21,a22表示视频帧间的旋转和缩放部分,a13,a23表示视频帧间的平移部分。
抖动视频产生的原因在于视频内容运动与相机主运动方向不一致。RANSAC算法可将与相机主运动方向不一致的角点或者特征点剔除,这些点会使得视频帧运动模型的求解结果出现偏差。
假设视频帧I与J是相邻的两帧图像,运动参数具体计算公式为:
Figure GDA0004177676870000053
其中,(x,y)为视频帧I的中心像素点,Tx为水平方向平移值,Ty为垂直方向平移值,X表示图像水平方向;Y表示图像垂直方向;
仿射变换包含6个自由度,且包含刚性变换、相似变换等。
根据跟踪到的角点,利用RANSAC算法估计出相邻帧间的仿射变换矩阵。求解得到第t帧到第t+1帧的单应变换矩阵Ht。由此计算原始相机路径Ct,具体计算公式为:
Ct=Ct-1Ht,t=1,2,…,N
其中,N表示视频总帧数。
步骤5:使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;
运动平滑主要为了去除原始相机路径的抖动,使得路径变得平滑。运动平滑通常可以通过高斯滤波器、卡尔曼滤波器或者曲线拟合等方式来完成。本文主要通过卡尔曼滤波器对上一步原始相机路径进行平滑处理。
卡尔曼滤波利用递推估计,从运动矢量中提取有意的运动矢量,可由前一时刻的估计值预测当前时刻值。利用卡尔曼滤波对运动路径做优化的预测模型具体计算公式为:
Figure GDA0004177676870000054
其中,X(t|t-1)表示第t帧对应状态量预测的结果,X(t-1|t-1)表示第t-1帧对应状态量的最优估计值,P(t|t-1)表示第t帧对应的状态协方差,F表示系统转移矩阵,Q表示预测噪声的方差。
卡尔曼滤波器的更新模型具体计算公式为:
Figure GDA0004177676870000061
其中,M(t)表示第t帧的卡尔曼增益,t表示观测矩阵,I表示单位矩阵,R表示测量噪声的协方差,P(t|t)表示滤波后的协方差,H表示均方误差。
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频;
由运动平滑得到相机运动轨迹后,根据原相机运动轨迹和求得的新的运动轨迹之间的关系,可得新的运动网格。依据新的运动网格和原视频网格间的位置差异,求得相邻每帧的运动补偿,最后对每一帧进行运动补偿,进而达到稳定的视频。
通过运动平滑对相机路径Ct平滑处理之后,将对视频的每一帧进行补偿。假设补偿矩阵为Bt,则得到的视频帧间的路径Pt,具体计算公式为:
Pt=CtBt
通过视频帧间路径计算得出相邻帧间的补偿矩阵Bt。计算每一帧的补偿矩阵后,利用Bt对每一帧图像进行几何变换,从而得到稳定的帧序列,也就得到了稳定的视频。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (2)

1.一种结合光流法和卡尔曼滤波的视频稳像方法,其特征在于,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
所述预处理,是通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵Ht,并将Ht作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出;
其中,在第t帧的特征点表示为fi t,对应的t+1帧的特征点为fi t+1,求解每帧2D仿射变换矩阵Ht,使得二阶导数的平方积分最小化,具体计算公式为:
Figure FDA0004177676860000011
其中,E(H)表示仿射变换矩阵导数平方积分最小化;
步骤2:对预处理后的视频帧进行角点检测;
对预处理后的视频帧进行Shi-Tomasi角点检测;
假设I(u,v)表示为灰度图的灰度值,(u,v)表示移动窗口其中一点的像素坐标,当窗口移动(Δx,Δy)得到的灰度值变化具体计算公式为:
Figure FDA0004177676860000012
其中,
Figure FDA0004177676860000013
表示窗口函数;
为了得到角点位置,只需要求E(Δx,Δy)的极大值;对灰度变换进行泰勒展开并舍去高阶项,具体计算公式为:
Figure FDA0004177676860000014
其中,M具体计算公式为:
Figure FDA0004177676860000015
其中,Ix,Iy分别表示x,y方向上的梯度值,
Figure FDA0004177676860000016
代表张量积运算;假设λ1和λ2为M的2个特征值,且给定一个阈值λ,如果某一点满足min(λ12)>λ,则存在Shi-Tomasi特征点;反之,则不存在特征点;
步骤3:对角点进行角点跟踪;
对角点进行LK角点跟踪;LK跟踪算法是一种以待跟踪窗口相邻帧间的灰度平方和SSD作为度量的匹配算法;
假设一个包含特征纹理信息的特征窗口W,设t时刻对应的视频帧用I(x,y,t)表示,t+τ时刻对应的视频帧用I(x,y,t+τ)表示,对应的位置具体计算公式为:
I(x,y,t+τ)=I(x-Δx,y-Δy,t);
其中,Δx,Δy为X(x,y)的偏移量;而在I(x,y,t+τ)中的每个像素点,根据I(x,y,t)中相对应的像素点平移d(Δx,Δy)求得;
假设相邻帧I和J,为了找到能够使SSD最小化的d;ε具体计算公式为:
Figure FDA0004177676860000021
/>
其中,ε表示SSD,W是给定的特征窗口,ω(X)是数值为1的权重函数,X表示视频帧运动位移,I(X)表示对应时刻的视频帧;
因d远小于X,即对J(X+d)进行泰勒展开,且去掉最高次项,仅保留前两项,而g是泰勒展开式的一阶泰勒系数;为了得到最佳匹配的角点,对最小化d求导化简得到具体计算公式为:
Figure FDA0004177676860000022
其中,gx是图像x方向的矩阵;gy是图像y方向的矩阵;
为了得到最优的匹配,对每个点进行牛顿迭代,求得最终解,具体计算公式为:
Figure FDA0004177676860000023
其中,dk表示第k次迭代所计算得到的d值,且初始值d0=0;
步骤4:估计全局运动;
采用仿射变换作为相邻帧间的全局运动,利用RANSAC算法估计出帧间的仿射变换矩阵;
其数学模型可表示为:
Figure FDA0004177676860000024
其中,
Figure FDA0004177676860000031
是仿射变换矩阵,a11,a12,a21,a22表示视频帧间的旋转和缩放部分,a13,a23表示视频帧间的平移部分;
假设视频帧I与J是相邻的两帧图像,运动参数具体计算公式为:
Figure FDA0004177676860000032
其中,(x,y)为视频帧I的中心像素点,Tx为水平方向平移值,Ty为垂直方向平移值;X表示图像水平方向;Y表示图像垂直方向;
根据跟踪到的角点,利用RANSAC算法估计出相邻帧间的仿射变换矩阵,求解得到第t帧到第t+1帧的单应变换矩阵Ht,由此计算原始相机路径Ct,具体计算公式为:
Ct=Ct-1Ht,t=1,2,…,N;
其中,N表示视频总帧数;
步骤5:对得到的运动参数进行滤波;
使用卡尔曼滤波器对得到的运动参数进行滤波;
利用卡尔曼滤波对运动路径做优化的预测模型具体计算公式为:
Figure FDA0004177676860000033
其中,X(t|t-1)表示第t帧对应状态量预测的结果,X(t-1|t-1)表示第t-1帧对应状态量的最优估计值,P(t|t-1)表示第t帧对应的状态协方差,F表示系统转移矩阵,Q表示预测噪声的方差;
卡尔曼滤波器的更新模型具体计算公式为:
Figure FDA0004177676860000034
其中,M(t)表示第t帧的卡尔曼增益,t表示观测矩阵,I表示单位矩阵,R表示测量噪声的协方差,P(t|t)表示滤波后的协方差,H表示均方误差;
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频。
2.根据权利要求1所述的结合光流法和卡尔曼滤波的视频稳像方法,其特征在于:步骤6中,通过运动平滑对相机路径Ct平滑处理之后,将对视频的每一帧进行补偿;假设补偿矩阵为Bt,则得到的视频帧间的路径Pt,具体计算公式为:
Pt=CtBt
通过视频帧间路径计算得出相邻帧间的补偿矩阵Bt;计算每一帧的补偿矩阵后,利用Bt对每一帧图像进行几何变换,从而得到稳定的帧序列,也就得到了稳定的视频。
CN201910931461.3A 2019-09-29 2019-09-29 一种结合光流法和卡尔曼滤波的视频稳像方法 Active CN110796010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910931461.3A CN110796010B (zh) 2019-09-29 2019-09-29 一种结合光流法和卡尔曼滤波的视频稳像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910931461.3A CN110796010B (zh) 2019-09-29 2019-09-29 一种结合光流法和卡尔曼滤波的视频稳像方法

Publications (2)

Publication Number Publication Date
CN110796010A CN110796010A (zh) 2020-02-14
CN110796010B true CN110796010B (zh) 2023-06-06

Family

ID=69440016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910931461.3A Active CN110796010B (zh) 2019-09-29 2019-09-29 一种结合光流法和卡尔曼滤波的视频稳像方法

Country Status (1)

Country Link
CN (1) CN110796010B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113497861B (zh) * 2020-03-19 2022-06-24 武汉Tcl集团工业研究院有限公司 一种视频稳化方法及装置
CN111461995B (zh) * 2020-03-31 2024-01-26 武汉卓目科技有限公司 基于近似稠密光流法和基准帧更新的视频消旋方法及装置
CN111614965B (zh) * 2020-05-07 2022-02-01 武汉大学 基于图像网格光流滤波的无人机视频稳像方法及系统
CN112287819A (zh) * 2020-10-28 2021-01-29 武汉三力通信有限责任公司 一种用于摄录设备的高速多路实时稳像方法
CN112508998A (zh) * 2020-11-11 2021-03-16 北京工业大学 基于全局运动的视觉目标对齐方法
CN112887708A (zh) * 2021-01-22 2021-06-01 北京锐马视讯科技有限公司 视频抖动检测方法和装置、设备及存储介质
CN113256679A (zh) * 2021-05-13 2021-08-13 湖北工业大学 一种基于车载后视镜系统的电子稳像算法
CN113949812A (zh) * 2021-10-21 2022-01-18 浙江大立科技股份有限公司 一种基于分块kalman运动预测的电子稳像方法
CN115131795A (zh) * 2022-06-28 2022-09-30 石家庄捷弘科技有限公司 一种图像扫描防抖识别方法、系统及可存储介质
CN115984333B (zh) * 2023-02-14 2024-01-19 北京拙河科技有限公司 一种飞机目标平滑跟踪方法及装置
CN116088580B (zh) * 2023-02-15 2023-11-07 北京拙河科技有限公司 一种飞行物体跟踪方法及装置
CN117575966B (zh) * 2023-11-28 2024-06-21 同济大学 一种用于无人机高空悬停拍摄场景的视频稳像方法
CN117714875B (zh) * 2024-02-06 2024-04-30 博大视野(厦门)科技有限公司 一种基于深度神经网络的端到端视频防抖方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106550174A (zh) * 2016-10-28 2017-03-29 大连理工大学 一种基于单应性矩阵的实时视频稳像方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2828315B1 (fr) * 2001-07-31 2005-08-05 Sagem Stabilisation des images d'une scene, correction des offsets de niveaux de gris, detection d'objets mobiles et harmonisation de deux appareils de prise de vues fondes sur la stabilisation des images
US7440008B2 (en) * 2004-06-15 2008-10-21 Corel Tw Corp. Video stabilization method
TWI381719B (zh) * 2008-02-18 2013-01-01 Univ Nat Taiwan 穩定全幅式視訊之方法
CN105354862B (zh) * 2015-09-30 2018-12-25 深圳大学 一种监控视频中运动目标的阴影检测方法、系统
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN106204637A (zh) * 2016-06-29 2016-12-07 深圳市优象计算技术有限公司 光流计算方法
CN106210447B (zh) * 2016-09-09 2019-05-14 长春大学 基于背景特征点匹配的视频稳像方法
CN106803265A (zh) * 2017-01-06 2017-06-06 重庆邮电大学 基于光流法和卡尔曼滤波的多目标跟踪方法
CN106875427B (zh) * 2017-01-11 2020-05-22 西南交通大学 一种机车蛇行运动监测方法
CN106851102A (zh) * 2017-02-24 2017-06-13 北京理工大学 一种基于捆绑测地线路径优化的视频稳像方法
CN108564554A (zh) * 2018-05-09 2018-09-21 上海大学 一种基于运动轨迹优化的视频稳定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106550174A (zh) * 2016-10-28 2017-03-29 大连理工大学 一种基于单应性矩阵的实时视频稳像方法

Also Published As

Publication number Publication date
CN110796010A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
CN110796010B (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
Cai et al. Robust visual tracking for multiple targets
CN102456225B (zh) 一种运动目标检测与跟踪方法和系统
Zhou et al. Efficient road detection and tracking for unmanned aerial vehicle
JP6095018B2 (ja) 移動オブジェクトの検出及び追跡
Kang et al. Detection and tracking of moving objects from a moving platform in presence of strong parallax
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
US9947077B2 (en) Video object tracking in traffic monitoring
KR100985805B1 (ko) 적응적인 칼만필터를 이용한 영상 안정화 장치 및 방법
CN110753181A (zh) 一种基于特征跟踪和网格路径运动的视频稳像方法
JP2016508652A (ja) 画像シーケンスにおける物体のオクルージョンの決定
US10249046B2 (en) Method and apparatus for object tracking and segmentation via background tracking
US20110074927A1 (en) Method for determining ego-motion of moving platform and detection system
CN115131420A (zh) 基于关键帧优化的视觉slam方法及装置
CN110738667A (zh) 一种基于动态场景的rgb-d slam方法和系统
CN108900775B (zh) 一种水下机器人实时电子稳像方法
Wang et al. Video stabilization: A comprehensive survey
Chen et al. Real-time object tracking via CamShift-based robust framework
Senst et al. Robust modified L 2 local optical flow estimation and feature tracking
CN109410254B (zh) 一种基于目标和相机运动建模的目标跟踪方法
Sincan et al. Moving object detection by a mounted moving camera
Yu et al. Accurate motion detection in dynamic scenes based on ego-motion estimation and optical flow segmentation combined method
Ryu et al. Video stabilization for robot eye using IMU-aided feature tracker
CN106934818B (zh) 一种手部运动跟踪方法及系统
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant