CN113542588A - 一种基于视觉显著性的抗干扰电子稳像方法 - Google Patents

一种基于视觉显著性的抗干扰电子稳像方法 Download PDF

Info

Publication number
CN113542588A
CN113542588A CN202110591205.1A CN202110591205A CN113542588A CN 113542588 A CN113542588 A CN 113542588A CN 202110591205 A CN202110591205 A CN 202110591205A CN 113542588 A CN113542588 A CN 113542588A
Authority
CN
China
Prior art keywords
grid
motion
path
saliency
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110591205.1A
Other languages
English (en)
Inventor
尹丽华
朱文华
康亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Polytechnic University
Original Assignee
Shanghai Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Polytechnic University filed Critical Shanghai Polytechnic University
Priority to CN202110591205.1A priority Critical patent/CN113542588A/zh
Publication of CN113542588A publication Critical patent/CN113542588A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory

Abstract

本发明公开了一种基于视觉显著性的抗干扰电子稳像方法,包括以下步骤:(1)输入不稳定视频,对相邻帧提取SURF特征点,并对特征点进行由粗到精的匹配;(2)利用时空融合的视觉显著性算法,检测视频帧中的运动目标;(3)剔除运动目标所对应的特征点匹配对;(4)将视频帧划分为M×N的网格,并计算每个网格对应的运动矢量;(5)对所有时间点的运动矢量进行累乘,获得每个网格的运动路径;(6)采用多路径平滑策略实现路径的平滑;(7)利用平滑后的路径,对图像进行反向补偿,输出稳定视频。本发明的优点在于,通过融入视觉显著性剔除了运动前景对运动估计的干扰,同时结合多网格的运动路径进行运动补偿,大大提高了稳像的精度。

Description

一种基于视觉显著性的抗干扰电子稳像方法
技术领域:
本发明属于视频处理技术领域,具体涉及一种通过融入视觉显著性检测技 术剔除了运动前景对运动估计的干扰,同时结合多网格的运动路径进行运动补 偿,大大提高了稳像精度的基于视觉显著性的抗干扰电子稳像方法。
背景技术:
手机、数码相机等手持设备凭借便携性,已成为人们日常拍摄的首选器材, 然而,拍摄的视频不可避免的存在画面抖动的问题.不仅会影响视觉效果,而 且容易导致误判或漏判。因此,将这些视频信号转化为高质量的稳定视频具有 十分重要的理论意义和实用价值。目前的稳像技术包括主要机械、光学以及电 子稳像等,由于电子稳像技术具有体积小、质量轻、精度高、灵活性强等优势, 目前已经被广泛应用于军事和民用领域,是增强视频效果关键技术,已经成为 当前的研究热点。
传统的电子稳像算法一般包括运动估计-运动平滑-反向补偿三个步骤。实 际的拍摄场景中,不可避免的会存在各种类型的运动前景(比如行人或车辆等), 运动估计时需要利用背景信息求解运动模型,但是当存在大前景或多运动前景 干扰时,降低了运动估计的精度,进而影响稳像精度。因此,剔除运动前景对 稳像的干扰尤为重要。
视觉显著性技术是利用计算机模拟人眼的视觉注意选择机制,检测中图像 中密度、颜色、形状等与周围有显著差异的区域,相对背景区域,运动前景更 容易被筛选出来,因此,将视觉显著性检测技术融入稳像算法中,非常适合解 决运动前景干扰下的稳像难题。
发明内容:
针对上述问题,本发明的主要目的在于提供一种通过融入视觉显著性检测 技术剔除了运动前景对运动估计的干扰,同时结合多网格的运动路径进行运动 补偿,大大提高了稳像精度的基于视觉显著性的抗干扰电子稳像方法。
本发明公开了一种基于视觉显著性的抗干扰电子稳像方法,包括以下步骤:
步骤(1)、输入不稳定视频,对相邻帧提取SURF特征点,并对特征点进 行由粗到精的匹配;
步骤(101)、对相邻帧提取SURF特征点,其中每个特征点用1×64维的 向量表示;
步骤(102)、将特征向量的欧氏距离作为相邻两帧中特征匹配的相似性度 量,并结合最近邻搜索策略得到初始的匹配对集合G0
步骤(103)、通过随机抽样一致算法剔除错误的匹配对,实现特征点的精 确匹配,从而得到精确的匹配对集合G1
步骤(2)、利用时空融合的视觉显著性算法,检测视频帧中的运动目标;
步骤(201)、利用特征点之间的运动对比度,得到时间显著图SalT(I)。
步骤(202)、利用像素点在整个图像上的颜色对比度,得到空间显著图 SalS(I)。
步骤(203)、将空间显著图和时间显著图进行融合,得到时空显著图Sal(I)。
步骤(204)、对时空显著图进行二值化,识别出运动目标所对应的像素点。
对于特定像素点Pm,通过判断其时空显著值Sal(Pm)与阈值T的关系,确定 该像素点是否为运动目标,即
Figure BDA0003089620650000021
其中,I表示图像帧,T表示阈值,D1(Pm)表示二值化的结果。
如果D1(Pm)结果值为1,则说明该像素点位于运动目标上,否则,说明该像 素点位于背景上。
步骤(3)、剔除运动目标所对应的特征点匹配对;
利用上述步骤(204)中获得的二值化结果,如果特征点位于运动目标上, 则把该特征点对应的匹配对剔除,否则继续保留,最终生成新的匹配对集合G2, 并将其用于后续的运动矢量求解。
步骤(4)、将视频帧划分为M×N的网格,并计算每个网格对应的运动矢量;
步骤(401)、利用上述步骤(3)中获得的匹配对集合G2,计算单应性矩阵
Figure BDA0003089620650000034
并将它作为全局的运动矢量,其中t代表图像的帧号。
步骤(402)、将视频帧划分为M×N的网格,遍历其中的每个网格,如果 网格内的特征点匹配对数≥4,则利用该网格中的特征点匹配对,计算该网格对 应的局部运动矢量F'i(t),最终运动矢量Fi(t)即为全局和局部运动矢量的乘积:
Figure BDA0003089620650000031
式中,i表示网格的编号,i∈[1,M×N]。
步骤(403)、如果网格内的特征点匹配对数<4,则最终运动矢量Fi(t)即为全 局的运动矢量Fi(t),
Figure BDA0003089620650000032
步骤(5)、对所有时间点的运动矢量进行累乘,获得每个网格的运动路径;
利用上述步骤(4)中获得的各网格在不同时刻的运动矢量Fi(t),对所有时 间点的运动矢量进行累乘,从而得到每个网格对应的运动路径Ci(t),计算公式 如下:
Ci(t)=Fi(0)·Fi(1)…·Fi(t-1) (8)
式中,{Fi(0),…Fi(t-1)}为第i个网格在不同时刻的运动矢量。
步骤(6)、采用多路径平滑策略实现路径的平滑;
利用上述步骤(5)中得到的各网格的原始运动路径C(t),通过最小化下面 的目标函数实现路径的平滑,从而得到最优路径P(t),即:
Figure BDA0003089620650000041
式中,E代表目标函数,λ为学习系数,r表示变量,Ωt表示第t帧的相邻帧。
步骤(7)、利用平滑后的路径,对图像进行反向补偿,输出稳定视频。
利用上述步骤(6)中获得每个网格的最优路径Pi(t),计算图像中每个网格 单元的补偿量Bi(t),公式如下:
Figure BDA0003089620650000042
然后,利用补偿量Bi(t)对该网格单元的像素进行反向补偿,得到稳定图像,最终生成稳定视频。
本发明的积极进步效果在于:本发明提供的基于视觉显著性的抗干扰电子 稳像方法具有如下优点:本发明的方法通过融入视觉显著性检测技术剔除了运 动前景对运动估计的干扰,同时结合多网格的运动路径进行运动补偿,大大提 高了稳像精度。
附图说明
图1是本发明具体实施方法的流程图。
图2是利用时空显著图进行运动目标检测的结果,其中,图(a)是输入图 像序列,图(b)是时间显著图,图(c)是空间显著图,图(d)是时空显著图, 图(e)是图像中的识别出的运动目标区域。
图3是本文算法与其它算法在多组视频(含运动目标)下的稳像结果对比, 其中,图(a)是第一组视频下的稳像结果;图(b)是第二组视频下的稳像结 果;图(c)是第三组视频下的稳像结果。
具体实施方式:
下面根据附图对本发明的具体实施方式作进一步的详细说明。
图1是本发明具体实施方法的流程图,包括以下步骤:
步骤(1)、输入不稳定视频,对相邻帧提取SURF特征点,并对特征点进行 由粗到精的匹配;
步骤(101)、对相邻帧提取SURF特征点,其中每个特征点用1×64维的向 量表示;
步骤(102)、将特征向量的欧氏距离作为相邻两帧中特征匹配的相似性度 量,并结合最近邻搜索策略得到初始的匹配对集合G1
步骤(103)、通过随机抽样一致算法剔除错误的匹配对,实现特征点的精 确匹配,从而得到精确的匹配对集合G1
步骤(2)、利用时空融合的视觉显著性算法,检测视频帧中的运动目标;
步骤(201)、利用特征点之间的运动对比度,得到时间显著图SalT(I)。
对于图像帧I,整个图像的时间显著值用SalT(I)表示。假设第t帧图像中的 某一特征点为P(x,y),在第(t+1)帧图像中其对应的匹配特征点为P'(x',y'),{P,P'} 表示一对匹配对。
通常情况下,一幅图像中会包含不同运动类型的物体,每种类型的物体与 不同的单应性矩阵H相对应。利用特征对匹配集合G1,采用随机抽样一致算法 将其划分为不同的内点集,并利用内点集(这里要求内点集数目≥4)估算出矩 阵H,则特征点对P和P'之间满足如下关系:
P'=H·P (11)
其中,
Figure BDA0003089620650000061
矩阵H中包含8个参数,a1~a8
注意:如果部分特征点不属于其中的任何一个内点集,则需要对矩阵H进 行简化:
Figure BDA0003089620650000062
其中,dx t=x'-x且dy t=y'-y。
不同特征点之间的运动存在差异,对于某一特征对{p,p'},特征点p与其它 特征点间的运动对比度ε(p,H)为:
ε(p,H)=||p'-H·p|| (13)
将特征点p与其它特征点间的运动对比度进行叠加,得到该特征点的时间显著 值SalT(p),具体计算公式如下:
Figure BDA0003089620650000065
其中,M表示该场景中单应矩阵H的数量,Hj为第j个单应性矩阵。aj表示由 第j个单应性矩阵Hj包含的内点集所围成的矩形区域占总图像的比例,即:
Figure BDA0003089620650000066
式中,aj∈[0,1],(xj,yj)表示第j个单应性矩阵Hj所对应的内点集中的坐标位置,width、height分别表示图像的宽度和高度。
通过公式(14)可得到特征点所对应的时间显着性值和矩形区域。鉴于同 一矩形区域内所有的图像像素应该具有相同的时间显著值,将矩形区域内所有 特征点的时间显著值的平均,作为该矩形区域内像素点的时间显著值,即:
Figure BDA0003089620650000071
其中,SalT(I)表示整个图像所对应的时间显著值,num表示该矩形区域内 包含的特征点总数,k表示特征点的编号,SalT(pk)表示第k个特征点所对应的 时间显著值。
生成整个图像的时间显著值SalT(I)时,需要注意:如果该像素被多个矩形 区域覆盖,则为它分配多个时间显著值中的最大值;否则,将它的时间显着值 设置为0。
步骤(202)、利用像素点在整个图像上的颜色对比度,得到空间显著图 SalS(I)。
图像I中某像素Ik对应的空间显著值SalS(Ik),等于该像素与图像中所有像 素在颜色上的距离之和,并将其中具有相同颜色值an的像素归到一起,则该像 素Ik对应的空间显著值为:
Figure BDA0003089620650000072
其中,fn表示颜色值an在图像中出现的概率,n∈[0,255]。
(203)、将空间显著图和时间显著图进行融合,得到时空显著图Sal(I):
Sal(I)=kT×SalT(I)+ks×SalS(I) (18)
式中,
Figure BDA0003089620650000073
Const为常数,PVarT的计算公式如下:
PVarT=max(SalT(I))-median(SalT(I)) (19)
式中,max、median分别为最大值和中值,Sal(I)为图像帧I的时空显著图。
对于图像帧I,通过计算每个像素的空间显著值,即可得整个图像对应的空 间显著图SalS(I)。
(204)、对时空显著图进行二值化,识别出运动目标所对应的像素点。
对于特定像素点Pm,通过判断其时空显著值Sal(Pm)与阈值T的关系,确定 该像素点是否为运动目标,即
Figure BDA0003089620650000081
式中,T表示阈值,D1(Pm)表示二值化的结果,如果D1(Pm)结果值为1,则说 明该像素点位于运动目标上,否则,说明该像素点位于背景上。
下图2是利用时空显著图进行运动目标检测的结果,其中,图(a)是输入 图像序列,图(b)是时间显著图,图(c)是空间显著图,图(d)是时空显著 图,图(e)是图像中的识别出的运动目标区域,可以看出,利用时空显著图可 以很好的剔除运动目标。
步骤(3)、剔除运动目标所对应的特征点匹配对;
利用上述步骤(2)的分步骤(204)中获得的二值化结果,如果特征点Pm位 于运动目标上,则把该特征点对应的匹配对剔除,否则继续保留,最终生成新 的匹配对集合G2,并将其用于后续的运动矢量求解。
步骤(4)、将视频帧划分为M×N的网格,并计算每个网格对应的运动矢量;
步骤(401)、利用上述步骤(3)中获得的匹配对集合G2,计算单应性矩阵
Figure BDA0003089620650000084
并将它作为全局的运动矢量,其中t代表图像的帧号。
步骤(402)、将视频帧划分为M×N的网格,遍历其中的每个网格,如果网 格内的特征点匹配对数≥4,则利用该网格中的特征点匹配对,计算该网格对应 的局部运动矢量F'i(t),最终运动矢量Fi(t)即为全局和局部运动矢量的乘积:
Figure BDA0003089620650000082
式中,i表示网格的编号,i∈[1,M×N]。
步骤(403)、如果网格内的特征点匹配对数<4,则最终运动矢量Fi(t)即为全 局的运动矢量Fi(t),
Figure BDA0003089620650000083
步骤(5)、对所有时间点的运动矢量进行累乘,获得每个网格的运动路径;
利用上述步骤(4)中获得的各网格在不同时刻的运动矢量Fi(t),对所有时 间点的运动矢量进行累乘,得到每个网格对应的运动路径Ci(t),计算公式如下:
Ci(t)=Fi(0)·Fi(1)…·Fi(t-1) (22)
式中,{Fi(0),…Fi(t-1)}为第i个网格在不同时刻的运动矢量。
步骤(6)、采用多路径平滑策略实现路径的平滑;
利用上述步骤(5)中得到的各网格的原始运动路径C(t),通过最小化下面 的目标函数实现路径的平滑,从而得到最优路径P(t),即:
Figure BDA0003089620650000092
式中,E代表目标函数,λ为学习系数,r表示变量,Ωt表示第t帧的相邻帧。
该目标函数中的第一项||P(t)-C(t)||2:是为了使平滑后的相机路径能尽可能地接近初始相机路径,避免稳定后的视频出现过度的裁剪和扭曲;第二项||P(t)-P(r)||2是平滑项,能去除原始视频中抖动。
上式(23)中的目标函数是二次函数,常采用稀疏线性求解器进行求解, 在本实例中使用基于Jacobi的求解器进行迭代求解。
步骤(7)、利用平滑后的路径,对图像进行反向补偿,输出稳定视频。
利用上述步骤(6)中获得每个网格的最优路径Pi(t),计算图像中每个网格 单元的补偿量Bi(t),公式如下:
Figure BDA0003089620650000093
然后应用补偿量Bi(t)对该网格单元的像素进行反向补偿,得到稳定图像,最终生成稳定视频。
步骤(8)稳像的评价指标:
为了定量地评价和度量视频稳像结果,常用cropping(裁剪率)、distortion (失真率)、stability(稳定度),定义如下:
a.cropping:衡量稳定后图像帧剩余的有效区域占原图像帧的比例,值越大, 说明视频稳像的效果越好。
b.distortion:可以衡量稳定后视频的失真程度,每一帧图像的失真率=映射 矩阵B(t)的两个最大特征值的比值。
c.stability:衡量稳定后视频的稳定度,采用频率分析法对视频中的2D运 动进行估算,基于这样的假设:运动分量中低频分量所占的越多,说明视频越 稳定。
为了验证本文算法在对于运动前景干扰视频的稳像优势,这里选择了包含 运动目标的三组不同的视频,并将本文算法与三种传统算法(Subspace、 Epipolar、Bundled-paths)进行稳像结果的比较。
通过图3(a)-(c)中可以看出,相比于传统额算法,本文算法在cropping、distortion和stability三个指标方面表现都比较好,说明该算法能有效避免 运动目标的干扰,提高稳像精度。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业 的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中 描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明 还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内,本 发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (8)

1.一种基于视觉显著性的抗干扰电子稳像方法,其特征在于包括以下步骤:
步骤(1)、输入不稳定视频,对相邻帧提取SURF特征点,并对特征点进行由粗到精的匹配;
步骤(2)、利用时空融合的视觉显著性算法,检测视频帧中的运动目标;
步骤(3)、剔除运动目标所对应的特征点匹配对;
步骤(4)、将视频帧划分为M×N的网格,并计算每个网格对应的运动矢量;
步骤(5)、对所有时间点的运动矢量进行累乘,获得每个网格的运动路径;
步骤(6)、采用多路径平滑策略实现路径的平滑;
步骤(7)、利用平滑后的路径,对图像进行反向补偿,输出稳定视频。
2.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(1)中的具体步骤包括:
步骤(101)、对相邻帧提取SURF特征点,其中每个特征点用1×64维的向量表示;
步骤(102)、将特征向量的欧氏距离作为相邻两帧中特征匹配的相似性度量,并结合最近邻搜索策略得到初始的匹配对集合G0
步骤(103)、通过随机抽样一致算法剔除错误的匹配对,实现特征点的精确匹配,从而得到精确的匹配对集合G1
3.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(2)中的具体步骤包括:
步骤(201)、利用特征点之间的运动对比度,得到时间显著图SalT(I);
步骤(202)、利用像素点在整个图像上的颜色对比度,得到空间显著图SalS(I);
步骤(203)、将空间显著图和时间显著图进行融合,得到时空显著图Sal(I);
步骤(204)、对时空显著图进行二值化,识别出运动目标所对应的像素点;
对于特定像素点Pm,通过判断其时空显著值Sal(Pm)与阈值T的关系,确定该像素点是否为运动目标,即
Figure FDA0003089620640000021
其中,I表示图像帧,T表示阈值,D1(Pm)表示二值化的结果,
如果D1(Pm)结果值为1,则说明该像素点位于运动目标上,否则,说明该像素点位于背景上。
4.根据权利要求2所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(3)的具体步骤包括:
利用上述步骤(204)中获得的二值化结果,如果特征点位于运动目标上,则把该特征点对应的匹配对剔除,否则继续保留,最终生成新的匹配对集合G2,并将其用于后续的运动矢量求解。
5.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(4)中的具体步骤包括:
步骤(401)、利用上述步骤(3)中获得的匹配对集合G2,计算单应性矩阵
Figure FDA0003089620640000022
并将它作为全局的运动矢量,其中t代表图像的帧号;
步骤(402)、将视频帧划分为M×N的网格,遍历其中的每个网格,如果网格内的特征点匹配对数≥4,则利用该网格中的特征点匹配对,计算该网格对应的局部运动矢量Fi'(t),最终运动矢量Fi(t)即为全局和局部运动矢量的乘积:
Figure FDA0003089620640000023
式中,符号i表示网格的编号,i∈[1,M×N];
步骤(403)、如果网格内的特征点匹配对数<4,则最终运动矢量Fi(t)即为全局的运动矢量Fi(t),
Figure FDA0003089620640000031
6.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(5)中的具体步骤包括:
利用上述步骤(4)中获得的各网格在不同时刻的运动矢量Fi(t),对所有时间点的运动矢量进行累乘,从而得到每个网格对应的运动路径Ci(t),计算公式如下:
Ci(t)=Fi(0)·Fi(1)…·Fi(t-1) (3)
式中,{Fi(0),…Fi(t-1)}为第i个网格在不同时刻的运动矢量。
7.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(6)中的具体步骤包括:
利用上述步骤(5)中得到原始运动路径C(t),通过最小化下面的目标函数实现路径的平滑,从而得到最优路径P(t),即:
Figure FDA0003089620640000033
式中,E代表目标函数,λ为学习系数,r表示变量,Ωt表示第t帧的相邻帧。
8.根据权利要求1所述的基于视觉显著性的抗干扰电子稳像算法,其特征在于:步骤(7)中的具体步骤包括:
利用上述步骤(6)中获得每个网格的最优路径Pi(t),计算图像中每个网格单元的补偿量Bi(t),公式如下:
Figure FDA0003089620640000034
然后,利用补偿量Bi(t)对该网格单元的像素进行反向补偿,得到稳定图像,最终生成稳定视频。
CN202110591205.1A 2021-05-28 2021-05-28 一种基于视觉显著性的抗干扰电子稳像方法 Pending CN113542588A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110591205.1A CN113542588A (zh) 2021-05-28 2021-05-28 一种基于视觉显著性的抗干扰电子稳像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110591205.1A CN113542588A (zh) 2021-05-28 2021-05-28 一种基于视觉显著性的抗干扰电子稳像方法

Publications (1)

Publication Number Publication Date
CN113542588A true CN113542588A (zh) 2021-10-22

Family

ID=78124464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110591205.1A Pending CN113542588A (zh) 2021-05-28 2021-05-28 一种基于视觉显著性的抗干扰电子稳像方法

Country Status (1)

Country Link
CN (1) CN113542588A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116389793A (zh) * 2023-02-21 2023-07-04 三亚学院 一种视频帧率提升的实现方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102903120A (zh) * 2012-07-19 2013-01-30 中国人民解放军国防科学技术大学 基于时空条件信息的运动目标检测方法
US20130100303A1 (en) * 2011-10-24 2013-04-25 National Central University Video Stabilization System and Method
CN106991690A (zh) * 2017-04-01 2017-07-28 电子科技大学 一种基于运动目标时序信息的视频序列同步方法
CN110753181A (zh) * 2019-09-29 2020-02-04 湖北工业大学 一种基于特征跟踪和网格路径运动的视频稳像方法
CN110782477A (zh) * 2019-10-10 2020-02-11 重庆第二师范学院 基于序列图像的运动目标快速检测方法、计算机视觉系统
CN110942473A (zh) * 2019-12-02 2020-03-31 哈尔滨工程大学 一种基于特征点网格化匹配的运动目标跟踪检测方法
CN111292357A (zh) * 2020-03-02 2020-06-16 西安交通大学 一种基于相关滤波的视频帧间快速运动估计方法
CN112465876A (zh) * 2020-12-11 2021-03-09 河南理工大学 一种立体匹配方法及设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130100303A1 (en) * 2011-10-24 2013-04-25 National Central University Video Stabilization System and Method
CN102903120A (zh) * 2012-07-19 2013-01-30 中国人民解放军国防科学技术大学 基于时空条件信息的运动目标检测方法
CN106991690A (zh) * 2017-04-01 2017-07-28 电子科技大学 一种基于运动目标时序信息的视频序列同步方法
CN110753181A (zh) * 2019-09-29 2020-02-04 湖北工业大学 一种基于特征跟踪和网格路径运动的视频稳像方法
CN110782477A (zh) * 2019-10-10 2020-02-11 重庆第二师范学院 基于序列图像的运动目标快速检测方法、计算机视觉系统
CN110942473A (zh) * 2019-12-02 2020-03-31 哈尔滨工程大学 一种基于特征点网格化匹配的运动目标跟踪检测方法
CN111292357A (zh) * 2020-03-02 2020-06-16 西安交通大学 一种基于相关滤波的视频帧间快速运动估计方法
CN112465876A (zh) * 2020-12-11 2021-03-09 河南理工大学 一种立体匹配方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
干文杰: "基于多路径优化的视频稳像方法", 《中国科学技术大学学报》 *
熊炜: "基于特征跟踪和网格路径运动的视频稳像算法", 《计算机工程与科学》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116389793A (zh) * 2023-02-21 2023-07-04 三亚学院 一种视频帧率提升的实现方法和装置
CN116389793B (zh) * 2023-02-21 2024-01-26 三亚学院 一种视频帧率提升的实现方法和装置

Similar Documents

Publication Publication Date Title
Ju et al. IDGCP: Image dehazing based on gamma correction prior
US6937744B1 (en) System and process for bootstrap initialization of nonparametric color models
Ju et al. BDPK: Bayesian dehazing using prior knowledge
Xu et al. Automatic building rooftop extraction from aerial images via hierarchical RGB-D priors
CN110753181A (zh) 一种基于特征跟踪和网格路径运动的视频稳像方法
Várkonyi-Kóczy et al. Gradient-based synthesized multiple exposure time color HDR image
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN109063549B (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
US11030478B1 (en) System and method for correspondence map determination
Patil et al. End-to-end recurrent generative adversarial network for traffic and surveillance applications
Yi et al. Leveraging multi-view image sets for unsupervised intrinsic image decomposition and highlight separation
CN109446978B (zh) 基于凝视卫星复杂场景的飞机动目标跟踪方法
US20110085026A1 (en) Detection method and detection system of moving object
CN110390338B (zh) 一种基于非线性引导滤波与比率梯度的sar高精度匹配方法
CN113542588A (zh) 一种基于视觉显著性的抗干扰电子稳像方法
CN111028263A (zh) 一种基于光流颜色聚类的运动物体分割方法及其系统
Zhang et al. Infrared detection of small moving target using spatial–temporal local vector difference measure
CN116883897A (zh) 一种低分辨率目标识别方法
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
CN110889459B (zh) 一种基于边缘和Fisher准则的学习方法
CN114399532A (zh) 一种相机位姿确定方法和装置
Qing et al. Image haze removal using depth-based cluster and self-adaptive parameters
Lee et al. Simultaneous object tracking and depth estimation using color shifting property of a multiple color-filter aperture camera
CN112991419A (zh) 视差数据生成方法、装置、计算机设备及存储介质
Mustaniemi et al. Parallax correction via disparity estimation in a multi-aperture camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20211022