CN110796010B - 一种结合光流法和卡尔曼滤波的视频稳像方法 - Google Patents
一种结合光流法和卡尔曼滤波的视频稳像方法 Download PDFInfo
- Publication number
- CN110796010B CN110796010B CN201910931461.3A CN201910931461A CN110796010B CN 110796010 B CN110796010 B CN 110796010B CN 201910931461 A CN201910931461 A CN 201910931461A CN 110796010 B CN110796010 B CN 110796010B
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- motion
- calculation formula
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000001914 filtration Methods 0.000 title claims abstract description 18
- 230000003287 optical effect Effects 0.000 title claims abstract description 18
- 230000000087 stabilizing effect Effects 0.000 title claims abstract description 11
- 230000009466 transformation Effects 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 32
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 238000009499 grossing Methods 0.000 claims abstract description 10
- 230000006641 stabilisation Effects 0.000 claims abstract description 9
- 238000011105 stabilization Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000013519 translation Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000013178 mathematical model Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 238000000844 transformation Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种结合光流法和卡尔曼滤波的视频稳像方法,首先在预稳定阶段,通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵,并将其作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出。然后对预稳定视频帧进行Shi‑Tomasi角点检测,并对角点进行LK角点跟踪;随后利用RANSAC算法估计全局运动;再使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;最后由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频;本发明采用光流法预稳定视频,使得视频内部运动减小,使得运动效果更好;本发明采用卡尔曼滤波器平滑相机路径,使得内部运动路径更加平滑。从而使得抖动视频更加稳定。
Description
技术领域
本发明属于数字图像视频处理技术领域,涉及一种视频稳像方法,特别是涉及一种结合光流法和卡尔曼滤波的视频稳像方法。
背景技术
随着当今自媒体的发展,通过智能设备拍摄短视频已经成为人们记录生活的主流方式。虽然当今部分品牌手机内部嵌入防抖摄像功能,但是在手持移动设备拍摄视频的过程中,由于外在相关条件的影响,拍摄的视频依旧很不稳定。视频稳像技术的目的主要是消除或减少视频的抖动,提高视频图像质量。
视频稳像算法通常包含2D方法、2.5D方法和3D方法。3D方法通常用于耗时的三维重建。2.5D方法适用于专业拍摄设备。2D方法由于处理速度快以及有较好的鲁棒性,常被用于处理视频稳像问题。
视频稳像方法一般分成3个部分:运动估计、运动平滑和运动补偿。2D稳像中的相机运动估计先进行局部运动估计,再通过局部运动向量估计全局运动向量。局部运动估计方法主要包括两类:基于像素点的方法和基于特征点的方法。基于像素点的方法主要包括块匹配法、相位相关法、灰度投影法以及光流法等。块匹配法原理简单、实现方便,应用广泛,但是在有快速运动的场景中效果并不好;相位相关法是一种非线性的算法,基础原理是傅里叶变换,有较高的匹配精度,且具有一定的抗干扰能力,但是计算时间过长,不适用实时;光流法尽管不需要了解相关场景信息,就能准确地检测识别运动目标位置,但有计算量大,耗时长,对光线敏感等缺点。基于特征点的方法主要将高维的图像数据进行简化表达,常见方法包括角点检测法、斑点检测法、边检测法等。角点是指在某方面属性特别突出的点,一般角点检测法有Harris角点检测法、FSAT算法等。斑点检测主要对它周围图像像素灰度值大或者小的区域进行检测,常见方法有SIFT算法、SURF算法等。角点检测容易受噪声影响且对边缘信息提取的依赖性不足;斑点检测速度较慢,很难实时处理图像;边检测法针对复杂场景以及光照不均很难进行处理。
发明内容
本发明提出的一种结合光流法和卡尔曼滤波的视频稳像方法,主要针对手持设备拍摄的抖动视频问题,能够较好的解决视频抖动的问题。
本发明所采用的技术方案是:一种结合光流法和卡尔曼滤波的视频稳像方法,其特征在于,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
步骤2:对预处理后的视频帧进行Shi-Tomasi角点检测;
步骤3:对角点进行LK角点跟踪;
步骤4:利用RANSAC算法估计全局运动;
步骤5:使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频。
本发明提出了一种结合光流法和卡尔曼滤波的视频稳像算法,与现有算法相比,其显著优点在于:
(1)本发明采用光流法预稳定视频,使得视频内部运动减小,使得运动效果更好;
(2)本发明采用Shi-Tomasi算法检测特征点,检测出图像中梯度变化较大的点,再对相邻帧间的特征点进行跟踪,由此估计仿射变换。将帧间的仿射变换进行累积,得到相机的路径,从而准确计算相机路径;
(3)本发明采用卡尔曼滤波器平滑相机路径,使得内部运动路径更加平滑。从而使得抖动视频更加稳定;
(4)本发明采用原始相机路径原相机运动轨迹和平滑的运动轨迹之间的位置差异,求得相邻每帧的运动补偿,最后对每一帧进行运动补偿,从而达到稳定的视频。
附图说明
图1为本发明实施例的流程图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种结合光流法和卡尔曼滤波的视频稳像方法,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
本实施例中,预处理是通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵Ht,并将Ht作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出;
其中,E(H)表示仿射变换矩阵二阶导数平方积分最小化。
步骤2:对预处理后的视频帧进行Shi-Tomasi角点检测;
角点也称极值点,是指像素变化较快的拐角位置或直线相交处。Shi-Tomasi角点是对Harris角点的改进,是一种局部特征检测方法,主要思想是通过改变移动窗口从而计算出窗口内灰度的变化。
假设I(u,v)表示为灰度图的灰度值,(u,v)表示移动窗口其中一点的像素坐标,当窗口移动(Δx,Δy)得到的灰度值变化具体计算公式为:
为了得到角点位置,只需要求E(Δx,Δy)的极大值即可。对灰度变换进行泰勒展开并舍去高阶项,具体计算公式为:
其中,M具体计算公式为:
其中,Ix,Iy分别表示x,y方向上的梯度值,代表张量积运算。假设λ1和λ2为M的2个特征值,且给定一个阈值λ,如果某一点满足min(λ1,λ2)>λ,则存在Shi-Tomasi特征点;反之,则不存在特征点。
步骤3:对角点进行LK角点跟踪;
通过Shi-Tomasi角点检测后,需要对其进行跟踪。LK跟踪算法也称KLT跟踪算法,是常用的角点跟踪算法,也是一种以待跟踪窗口相邻帧间的灰度平方和(SSD)作为度量的匹配算法。
假设一个包含特征纹理信息的特征窗口W,设t时刻对应的视频帧用I(x,y,t)表示,t+τ时刻对应的视频帧用I(x,y,t+τ)表示,对应的位置具体计算公式为:
I(x,y,t+τ)=I(x-Δx,y-Δy,t);
其中,Δx,Δy为X(x,y)的偏移量。而在I(x,y,t+τ)中的每个像素点,都可以根据I(x,y,t)中相对应的像素点平移d(Δx,Δy)求得。
假设相邻帧I和J,为了找到能够使SSD(用ε表示)最小化的d。ε具体计算公式为:
其中,W是特征窗口,ω(X)是数值为1的权重系数,X表示视频帧运动位移,I(X)表示对应时刻的视频帧;
由于d通常远小于X,即可对J(X+d)进行泰勒展开,且去掉最高次项,仅保留前两项,而g是泰勒展开式的一阶泰勒系数。为了得到最佳匹配的角点,对最小化d求导化简得到具体计算公式为:
其中,gx是图像x方向的矩阵;gy是图像y方向的矩阵。
为了得到最优的匹配,对每个点进行牛顿迭代,求得最终解,具体计算公式为:
其中,dk表示第k次迭代所计算得到的d值,且初始值d0=0。
步骤4:利用RANSAC算法估计全局运动;
相邻帧间的复杂变换主要表现在相似变换、刚性变换、仿射变换等。本文采用仿射变换作为相邻帧间的全局运动,利用RANSAC算法估计出帧间的仿射变换矩阵。其数学模型可表示为:
抖动视频产生的原因在于视频内容运动与相机主运动方向不一致。RANSAC算法可将与相机主运动方向不一致的角点或者特征点剔除,这些点会使得视频帧运动模型的求解结果出现偏差。
假设视频帧I与J是相邻的两帧图像,运动参数具体计算公式为:
其中,(x,y)为视频帧I的中心像素点,Tx为水平方向平移值,Ty为垂直方向平移值,X表示图像水平方向;Y表示图像垂直方向;
仿射变换包含6个自由度,且包含刚性变换、相似变换等。
根据跟踪到的角点,利用RANSAC算法估计出相邻帧间的仿射变换矩阵。求解得到第t帧到第t+1帧的单应变换矩阵Ht。由此计算原始相机路径Ct,具体计算公式为:
Ct=Ct-1Ht,t=1,2,…,N
其中,N表示视频总帧数。
步骤5:使用卡尔曼滤波器对得到的运动参数进行滤波,以达到平滑的目的;
运动平滑主要为了去除原始相机路径的抖动,使得路径变得平滑。运动平滑通常可以通过高斯滤波器、卡尔曼滤波器或者曲线拟合等方式来完成。本文主要通过卡尔曼滤波器对上一步原始相机路径进行平滑处理。
卡尔曼滤波利用递推估计,从运动矢量中提取有意的运动矢量,可由前一时刻的估计值预测当前时刻值。利用卡尔曼滤波对运动路径做优化的预测模型具体计算公式为:
其中,X(t|t-1)表示第t帧对应状态量预测的结果,X(t-1|t-1)表示第t-1帧对应状态量的最优估计值,P(t|t-1)表示第t帧对应的状态协方差,F表示系统转移矩阵,Q表示预测噪声的方差。
卡尔曼滤波器的更新模型具体计算公式为:
其中,M(t)表示第t帧的卡尔曼增益,t表示观测矩阵,I表示单位矩阵,R表示测量噪声的协方差,P(t|t)表示滤波后的协方差,H表示均方误差。
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频;
由运动平滑得到相机运动轨迹后,根据原相机运动轨迹和求得的新的运动轨迹之间的关系,可得新的运动网格。依据新的运动网格和原视频网格间的位置差异,求得相邻每帧的运动补偿,最后对每一帧进行运动补偿,进而达到稳定的视频。
通过运动平滑对相机路径Ct平滑处理之后,将对视频的每一帧进行补偿。假设补偿矩阵为Bt,则得到的视频帧间的路径Pt,具体计算公式为:
Pt=CtBt
通过视频帧间路径计算得出相邻帧间的补偿矩阵Bt。计算每一帧的补偿矩阵后,利用Bt对每一帧图像进行几何变换,从而得到稳定的帧序列,也就得到了稳定的视频。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (2)
1.一种结合光流法和卡尔曼滤波的视频稳像方法,其特征在于,包括以下步骤:
步骤1:针对原始抖动视频,进行预处理;
所述预处理,是通过光流法跟踪视频帧的最小特征值特征点,由此求解出每个视频帧的2D仿射变换矩阵Ht,并将Ht作用于下一步输入视频的帧,从而将最终生成的裁剪视频作为预稳定阶段的输出;
其中,在第t帧的特征点表示为fi t,对应的t+1帧的特征点为fi t+1,求解每帧2D仿射变换矩阵Ht,使得二阶导数的平方积分最小化,具体计算公式为:
其中,E(H)表示仿射变换矩阵导数平方积分最小化;
步骤2:对预处理后的视频帧进行角点检测;
对预处理后的视频帧进行Shi-Tomasi角点检测;
假设I(u,v)表示为灰度图的灰度值,(u,v)表示移动窗口其中一点的像素坐标,当窗口移动(Δx,Δy)得到的灰度值变化具体计算公式为:
为了得到角点位置,只需要求E(Δx,Δy)的极大值;对灰度变换进行泰勒展开并舍去高阶项,具体计算公式为:
其中,M具体计算公式为:
其中,Ix,Iy分别表示x,y方向上的梯度值,代表张量积运算;假设λ1和λ2为M的2个特征值,且给定一个阈值λ,如果某一点满足min(λ1,λ2)>λ,则存在Shi-Tomasi特征点;反之,则不存在特征点;
步骤3:对角点进行角点跟踪;
对角点进行LK角点跟踪;LK跟踪算法是一种以待跟踪窗口相邻帧间的灰度平方和SSD作为度量的匹配算法;
假设一个包含特征纹理信息的特征窗口W,设t时刻对应的视频帧用I(x,y,t)表示,t+τ时刻对应的视频帧用I(x,y,t+τ)表示,对应的位置具体计算公式为:
I(x,y,t+τ)=I(x-Δx,y-Δy,t);
其中,Δx,Δy为X(x,y)的偏移量;而在I(x,y,t+τ)中的每个像素点,根据I(x,y,t)中相对应的像素点平移d(Δx,Δy)求得;
假设相邻帧I和J,为了找到能够使SSD最小化的d;ε具体计算公式为:
其中,ε表示SSD,W是给定的特征窗口,ω(X)是数值为1的权重函数,X表示视频帧运动位移,I(X)表示对应时刻的视频帧;
因d远小于X,即对J(X+d)进行泰勒展开,且去掉最高次项,仅保留前两项,而g是泰勒展开式的一阶泰勒系数;为了得到最佳匹配的角点,对最小化d求导化简得到具体计算公式为:
其中,gx是图像x方向的矩阵;gy是图像y方向的矩阵;
为了得到最优的匹配,对每个点进行牛顿迭代,求得最终解,具体计算公式为:
其中,dk表示第k次迭代所计算得到的d值,且初始值d0=0;
步骤4:估计全局运动;
采用仿射变换作为相邻帧间的全局运动,利用RANSAC算法估计出帧间的仿射变换矩阵;
其数学模型可表示为:
假设视频帧I与J是相邻的两帧图像,运动参数具体计算公式为:
其中,(x,y)为视频帧I的中心像素点,Tx为水平方向平移值,Ty为垂直方向平移值;X表示图像水平方向;Y表示图像垂直方向;
根据跟踪到的角点,利用RANSAC算法估计出相邻帧间的仿射变换矩阵,求解得到第t帧到第t+1帧的单应变换矩阵Ht,由此计算原始相机路径Ct,具体计算公式为:
Ct=Ct-1Ht,t=1,2,…,N;
其中,N表示视频总帧数;
步骤5:对得到的运动参数进行滤波;
使用卡尔曼滤波器对得到的运动参数进行滤波;
利用卡尔曼滤波对运动路径做优化的预测模型具体计算公式为:
其中,X(t|t-1)表示第t帧对应状态量预测的结果,X(t-1|t-1)表示第t-1帧对应状态量的最优估计值,P(t|t-1)表示第t帧对应的状态协方差,F表示系统转移矩阵,Q表示预测噪声的方差;
卡尔曼滤波器的更新模型具体计算公式为:
其中,M(t)表示第t帧的卡尔曼增益,t表示观测矩阵,I表示单位矩阵,R表示测量噪声的协方差,P(t|t)表示滤波后的协方差,H表示均方误差;
步骤6:由原始相机路径与平滑路径的关系进行运动补偿,从而得到稳定视频。
2.根据权利要求1所述的结合光流法和卡尔曼滤波的视频稳像方法,其特征在于:步骤6中,通过运动平滑对相机路径Ct平滑处理之后,将对视频的每一帧进行补偿;假设补偿矩阵为Bt,则得到的视频帧间的路径Pt,具体计算公式为:
Pt=CtBt
通过视频帧间路径计算得出相邻帧间的补偿矩阵Bt;计算每一帧的补偿矩阵后,利用Bt对每一帧图像进行几何变换,从而得到稳定的帧序列,也就得到了稳定的视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910931461.3A CN110796010B (zh) | 2019-09-29 | 2019-09-29 | 一种结合光流法和卡尔曼滤波的视频稳像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910931461.3A CN110796010B (zh) | 2019-09-29 | 2019-09-29 | 一种结合光流法和卡尔曼滤波的视频稳像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110796010A CN110796010A (zh) | 2020-02-14 |
CN110796010B true CN110796010B (zh) | 2023-06-06 |
Family
ID=69440016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910931461.3A Active CN110796010B (zh) | 2019-09-29 | 2019-09-29 | 一种结合光流法和卡尔曼滤波的视频稳像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110796010B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113497861B (zh) * | 2020-03-19 | 2022-06-24 | 武汉Tcl集团工业研究院有限公司 | 一种视频稳化方法及装置 |
CN111461995B (zh) * | 2020-03-31 | 2024-01-26 | 武汉卓目科技有限公司 | 基于近似稠密光流法和基准帧更新的视频消旋方法及装置 |
CN111614965B (zh) * | 2020-05-07 | 2022-02-01 | 武汉大学 | 基于图像网格光流滤波的无人机视频稳像方法及系统 |
CN112287819A (zh) * | 2020-10-28 | 2021-01-29 | 武汉三力通信有限责任公司 | 一种用于摄录设备的高速多路实时稳像方法 |
CN112508998A (zh) * | 2020-11-11 | 2021-03-16 | 北京工业大学 | 基于全局运动的视觉目标对齐方法 |
CN112887708A (zh) * | 2021-01-22 | 2021-06-01 | 北京锐马视讯科技有限公司 | 视频抖动检测方法和装置、设备及存储介质 |
CN113256679A (zh) * | 2021-05-13 | 2021-08-13 | 湖北工业大学 | 一种基于车载后视镜系统的电子稳像算法 |
CN113949812A (zh) * | 2021-10-21 | 2022-01-18 | 浙江大立科技股份有限公司 | 一种基于分块kalman运动预测的电子稳像方法 |
CN115131795A (zh) * | 2022-06-28 | 2022-09-30 | 石家庄捷弘科技有限公司 | 一种图像扫描防抖识别方法、系统及可存储介质 |
CN115984333B (zh) * | 2023-02-14 | 2024-01-19 | 北京拙河科技有限公司 | 一种飞机目标平滑跟踪方法及装置 |
CN116088580B (zh) * | 2023-02-15 | 2023-11-07 | 北京拙河科技有限公司 | 一种飞行物体跟踪方法及装置 |
CN117575966B (zh) * | 2023-11-28 | 2024-06-21 | 同济大学 | 一种用于无人机高空悬停拍摄场景的视频稳像方法 |
CN117714875B (zh) * | 2024-02-06 | 2024-04-30 | 博大视野(厦门)科技有限公司 | 一种基于深度神经网络的端到端视频防抖方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106550174A (zh) * | 2016-10-28 | 2017-03-29 | 大连理工大学 | 一种基于单应性矩阵的实时视频稳像方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2828315B1 (fr) * | 2001-07-31 | 2005-08-05 | Sagem | Stabilisation des images d'une scene, correction des offsets de niveaux de gris, detection d'objets mobiles et harmonisation de deux appareils de prise de vues fondes sur la stabilisation des images |
US7440008B2 (en) * | 2004-06-15 | 2008-10-21 | Corel Tw Corp. | Video stabilization method |
TWI381719B (zh) * | 2008-02-18 | 2013-01-01 | Univ Nat Taiwan | 穩定全幅式視訊之方法 |
CN105354862B (zh) * | 2015-09-30 | 2018-12-25 | 深圳大学 | 一种监控视频中运动目标的阴影检测方法、系统 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN106204637A (zh) * | 2016-06-29 | 2016-12-07 | 深圳市优象计算技术有限公司 | 光流计算方法 |
CN106210447B (zh) * | 2016-09-09 | 2019-05-14 | 长春大学 | 基于背景特征点匹配的视频稳像方法 |
CN106803265A (zh) * | 2017-01-06 | 2017-06-06 | 重庆邮电大学 | 基于光流法和卡尔曼滤波的多目标跟踪方法 |
CN106875427B (zh) * | 2017-01-11 | 2020-05-22 | 西南交通大学 | 一种机车蛇行运动监测方法 |
CN106851102A (zh) * | 2017-02-24 | 2017-06-13 | 北京理工大学 | 一种基于捆绑测地线路径优化的视频稳像方法 |
CN108564554A (zh) * | 2018-05-09 | 2018-09-21 | 上海大学 | 一种基于运动轨迹优化的视频稳定方法 |
-
2019
- 2019-09-29 CN CN201910931461.3A patent/CN110796010B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106550174A (zh) * | 2016-10-28 | 2017-03-29 | 大连理工大学 | 一种基于单应性矩阵的实时视频稳像方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110796010A (zh) | 2020-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796010B (zh) | 一种结合光流法和卡尔曼滤波的视频稳像方法 | |
Cai et al. | Robust visual tracking for multiple targets | |
CN102456225B (zh) | 一种运动目标检测与跟踪方法和系统 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
JP6095018B2 (ja) | 移動オブジェクトの検出及び追跡 | |
Kang et al. | Detection and tracking of moving objects from a moving platform in presence of strong parallax | |
KR101071352B1 (ko) | 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법 | |
US9947077B2 (en) | Video object tracking in traffic monitoring | |
KR100985805B1 (ko) | 적응적인 칼만필터를 이용한 영상 안정화 장치 및 방법 | |
CN110753181A (zh) | 一种基于特征跟踪和网格路径运动的视频稳像方法 | |
JP2016508652A (ja) | 画像シーケンスにおける物体のオクルージョンの決定 | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
US20110074927A1 (en) | Method for determining ego-motion of moving platform and detection system | |
CN115131420A (zh) | 基于关键帧优化的视觉slam方法及装置 | |
CN110738667A (zh) | 一种基于动态场景的rgb-d slam方法和系统 | |
CN108900775B (zh) | 一种水下机器人实时电子稳像方法 | |
Wang et al. | Video stabilization: A comprehensive survey | |
Chen et al. | Real-time object tracking via CamShift-based robust framework | |
Senst et al. | Robust modified L 2 local optical flow estimation and feature tracking | |
CN109410254B (zh) | 一种基于目标和相机运动建模的目标跟踪方法 | |
Sincan et al. | Moving object detection by a mounted moving camera | |
Yu et al. | Accurate motion detection in dynamic scenes based on ego-motion estimation and optical flow segmentation combined method | |
Ryu et al. | Video stabilization for robot eye using IMU-aided feature tracker | |
CN106934818B (zh) | 一种手部运动跟踪方法及系统 | |
CN110322474B (zh) | 一种基于无人机平台的图像动目标实时检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |