CN101329767A - 基于学习的视频中显著物体序列自动检测方法 - Google Patents

基于学习的视频中显著物体序列自动检测方法 Download PDF

Info

Publication number
CN101329767A
CN101329767A CNA2008101503248A CN200810150324A CN101329767A CN 101329767 A CN101329767 A CN 101329767A CN A2008101503248 A CNA2008101503248 A CN A2008101503248A CN 200810150324 A CN200810150324 A CN 200810150324A CN 101329767 A CN101329767 A CN 101329767A
Authority
CN
China
Prior art keywords
conspicuousness
prime
sequence
sigma
obvious object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008101503248A
Other languages
English (en)
Other versions
CN101329767B (zh
Inventor
刘铁
袁泽剑
郑南宁
盛兴东
崔超
张耿
董毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN2008101503248A priority Critical patent/CN101329767B/zh
Publication of CN101329767A publication Critical patent/CN101329767A/zh
Application granted granted Critical
Publication of CN101329767B publication Critical patent/CN101329767B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于学习的视频中显著物体序列自动检测方法,该方法首先计算静态显著性特征,计算动态显著性特征,并与静态显著性特征自适应组合起来构成显著性特征约束。计算每帧图像中的空间连续性。计算相邻帧图像中显著物体的时间连续性。这里计算所有可能的显著物体之间的相似度。利用前一次计算获得显著物体序列计算全局主题模型,并计算相应的能量贡献。利用动态规划算法进行全局最优求解,从而获得全局最优的显著物体序列。当未满足收敛条件继续迭代求解。否则,输出矩形框序列作为最优的显著物体序列。本发明能有效解决静态与动态显著性特征的选取与多种约束条件的优化集成,以及目标序列检测的高效计算。

Description

基于学习的视频中显著物体序列自动检测方法
技术领域
本发明属于视觉注意分析与视频中显著物体序列自动检测,特别涉及单个显著物体序列的自动检测方法。
背景技术
随着互联网和数字摄像技术的发展,互联网上可以获得视频的越来越多,使得视频检索、视频整理和总结变得非常重要。视频中的内容分析一直是视频检索与总结中的重要部分。传统的视频注意力分析通过对时空序列中像素点赋予不同的权重来标识视频中不同部分的重要程度,并能够识别可能的视觉集中点,但是没有“物体”这个概念因而无法检测出物体。现实中物体的概念指我们经常见到的如人脸、汽车、行人、桌子、猫、狗等等,而显著物体指的是在图像中最明显的物体或者叫做一眼就能够看到的物体。大量视频中存在单一显著物体序列,其中显著物体非常小并且具有很多的干扰,这对于基于图像的显著物体检测非常具有挑战性。
早先有关这方面的工作包括视频注意力分析,其中静态和动态显著性线索被证明对于视频中的显著视觉注意力点的检测很有用。静态线索来自单帧图像中的视觉注意力,即图像不同区域给出不同的权重来表明其重要性。Itti.等(IEEE Transaction on PAMI,1998,pp.1254-259)在1998年提出的显著性模型通过计算像素点在不同尺度下光强、颜色和方向等特征的中间与周围之间的差异性来计算每个像素点的重要性,即显著性图。通过赢者通吃或者其它线性、非线性集成算法,可以识别出一些视觉注意力集中点。这是目前常用的视觉注意力计算方法。动态线索主要来自于视频中感兴趣目标的运动信息,有很多方法用来捕获动态线索。利用帧差直接计算前后两帧的差别来捕获动态信息,其仅仅局限于固定相机而对移动背景无能为力(Zhan,Image andGraphics,2007,pp 519-523)。在(Bur.,ICVS,2007)中,大的运动被认为导致显著的注意力,即运动场幅度越大,显著性越强。但在实际的视频数据中也存在背景具有更大的运动。文献(Vision Research,2006,pp4333-4345)利用运动对比度在作为动态显著性线索,但局部的对比度将导致物体内部运动一致的区域不能够被显示出来。
在(IEEE ICCV’05,pp 1754-1761)中,基于运动场的层次分割被用来提取物体的各个部分并跟踪。如果具有不同运动场的场景和物体能够正确的分割,就可以认为某个在视频中一直存在且具有连续运动场的物体是目标物体,该方法主要受运动层分割的限制。静态图像中的主题模型被扩展到运动视频中,这样可以集成时域中的运动模型。其主要集中在发现低分辨率图像的小目标,而对纹理丰富的前景目标有困难(David,IEEE CVPR’07)。整个物体假设有一个单一的常数速度模型,并且物体的表面视觉单词(visual words)被认为在整个视频中是恒定的。所有依赖于主题模型(topic model)的方法都受到物体旋转和表面变化的影响。
视频注意力分析的方法专注于直接从图像的表面或者运动场等特征中计,尽管可以识别出一些注意力集中点,其无法解决“物体”这个整体概念,另外,没有集成全局的信息往往带来计算的错误。视频中的自动物体发现类的方法最大的问题在于:静态与动态显著性特征选择与有效集成,以及求解算法的效率与收敛问题。
发明内容
本发明的目的在于克服上述现有技术的不足,提供一种基于学习的视频中显著物体序列自动检测方法,该方法能够可靠的检测显著物体序列,在基于区域和基于边缘的评测指标上都有显著提高。
本发明采用基于学习的方法能有效解决静态与动态显著性特征的选取与多种约束条件的优化集成,以及目标序列检测的高效计算。
本发明的技术方案是这样实现的:
本发明的技术方案通过如下迭代优化的算法来实现显著物体序列的自动检测的,具体步骤如下:
1)计算静态显著性特征:局部、区域和全局显著性特征计算来自每一帧图像的静态线索;
2)计算动态显著性特征,并与静态显著性特征自适应组合起来构成显著性特征约束;
计算动态显著性特征方法如下:
采用对每个像素点在多尺度上利用Simoncelli滤波器来计算运动场M,对运动场进行加权,加权权值计算如下:W(x,M)=exp(-εc||V(x,M)||2),其中εc=0.2,V(x,M)是来自像素点x周围5×5的窗口内运动场的标准方差;
对于加权的运动场,扩展(Tie,IEEE CVPR’07)中的局部、区域全局性显著性特征到加权运动场中来计算运动场显著性特征:
加权多尺度对比度: f M c ( x , M ) = Σ l = 1 L Σ x ′ ∈ N ( x ) W x l W x ′ l | | M l ( x ) - M l ( x ′ ) | | 2 ,
加权中间-周围直方图: f M h ( x , M ) ∝ Σ { x ′ | x ∈ R M * ( x ′ ) } w xx ′ W x ′ χ 2 ( R M * ( x ′ ) , R M s * ( x ′ ) ) ,
加权运动场空间分布 f M s ( x , M ) ∝ Σ m W x p ( m | M x ) ( 1 - V ( m ) ) ,
其中Wx为运动场的权重,M是运动场向量,N(x)代表x周围一定区域内的像素集,L是总的层数,l代表当前层数,Ml是金字塔中第l层的二维运动场,Wx l是像素点x的权重,Rm *是以x′为中心且包括x的矩形框内的统计直方图,
Figure A20081015032400091
是对应的周围矩形框内的统计直方图,wxx′是空间的距离上的权重,Wx′表明了像素点x′的权重,χ2表示直方图间的距离,V(m)为每个高斯元的空间分布方差,m代表高斯元序号。使用同样的参数可以获得最终组合的加权运动场显著性特征:
F M ( x ) = Σ k λ k f M k ( x , M )
运动显著性在时间维度上的自适应平滑,采用前后两帧运动显著特征的自适应组合方式:
F Mt ( x ) = S t S t + S t - 1 F Mt ( x ) + S t - 1 S t + S t - 1 F Mt - 1 ( x ) ,
这里St定义为权重,计算如下: S t = 1 - exp ( - β s D F M ) 1 + exp ( - β s D F M ) , 其中βs=0.1,定义了
Figure A20081015032400095
两个5×5的窗口区域里显著性的最大差,定义如下: D F M = max x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | - min x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | , 其中N(x)表明5×5的窗口邻域;
将自适应平滑后的动态显著性和静态显著性自适应组合起来构成最终的显著性约束:Ft(x)=FSt(x)+St×FMt(x),其中St为平滑的运动场显著性上重新计算的运动显著的权重,从定义中可以看到St∈[0,1];
3)计算每帧图像中的空间连续性,具体方法如下:
显著物体被表示为一个矩形框,空间连续性被定义为刻画矩形框边界与真实的图像边缘之间的吻合程度,即 S C t ( A t , I t ) = λ S Σ x , x ′ δ ( a x ′ ≠ a x ) D E t ( x , I t ) , 这里 D E t ( x , I t ) ∈ [ 0,1 ] 表示像素点x到图像边缘的归一化距离, λ s = 0.1 × W × H | L t | , 其中|Lt|为矩形框上像素点的个数,W和H为图像的宽度和高度,Sobel算子用来计算图像的边界并自适应的选择门限值进行二值化可以获得图像的边缘信息;
4)计算相邻帧图像中显著物体的时间连续性,时间连续性数学定义如下: T C t ( A t , t + 1 , I t , t + 1 ) = β 1 S ( A t , A t + 1 ) + β 2 χ 2 ( A t , A t + 1 ) , 其中 S ( A t , A t + 1 ) = Σ { a x t , a x t + 1 , } | | a x t a x t + 1 , | | 定义了相邻两帧图像中显著物体的形状相似度,而χ2(At,At+1)定义了相邻两帧图像中显著物体的表面模式之间的相似度,这里为颜色直方图的χ2距离, β 1 = 0.5 × W × H W + H , β 2 = 0.01 为权值以保持与其它能量项的平衡;
5)利用前一次计算获得显著物体序列计算全局主题模型,并计算相应的能量贡献,从第二次迭代开始;
利用前次检测结果在整个序列里比较保守的收集显著物体和背景的样本策略,然后利用这些样本构造出显著物体的颜色直方图HF(b)和背景的颜色直方图HB(b),这里b表示直方图的位阶,然后对每帧图像的每一个像素点计算一个似然,全局主题模型在能量函数中的贡献计算如下: G t ( A t ) = Σ x ∈ A t H B ( b x ) H F ( b x ) + H B ( b x ) + Σ x ∉ A t H F ( b x ) H F ( b x ) + H B ( b x ) , 其中bx为像素点x的颜色直方图值;
6)利用动态规划算法进行全局最优求解,从而获得全局最优的显著物体序列;
视频中显著物体序列检测的数学建模如下:视频可以表示为图像序列I1…T,其中T为总帧数,显著物体序列A1…T∈{0,1}为二值模板图序列,标明每个像素点是否为显著物体,计算给定观测数据I1…T的情况下A1…T的条件分布,即 P ( A 1 · · · T | I 1 · · · T ) = 1 Z exp ( - Σ t E t ( A t | I 1 · · · T , A t ′ ≠ t ) ) , 其中t∈[1,T]是时间刻度,Z是归一化函数,显著物体序列A1…T通过最小化能量函数进行求解:
A 1 · · · T * = arg min A 1 · · · T Σ t E t ( A t | I 1 · · · T , A t ′ ≠ t ) - - - ( 1 )
能量函数Et(At|I1…T,At′≠t)可以定义为这些线索的线性组合:
Figure A20081015032400113
Ft为显著性约束,
Figure A20081015032400114
为空间连续性,
Figure A20081015032400115
为时间连续性,Gt为全局主题模型;
动态规划算法设计如下:At是状态变量(中心和尺度),Ut是相邻两帧之间矩形框变化的可能策略,那么最优值函数可以写作:
S t + 1 ( A t + 1 ) = arg min U t S t ( A t ) + E t ( A t ) - - - ( 3 )
其中At=T(At+1,Ut)从状态转移函数计算而来,E(At)为(2)式定义的能量函数,目标函数的初始值为S0=0,前向算法可以用来进行最优值计算,获得全局最优的矩形框序列A1…T,在第一次进行能量最小化计算的时候,用到静态和动态显著性、时间与空间连续性,即:
Figure A20081015032400117
7)当未满足收敛条件,输出序列不再变化或者达到一定的迭代次数时跳转步骤5)继续迭代求解,否则,输出矩形框序列作为最优的显著物体序列。
本发明的技术效果:
(1)本发明提出新的基于条件随机场(CRF)的模型来建模视频中的显著物体序列检测问题。这个模型集成了静态和动态显著性、时间与空间连续性以及全局主题模型。多种线索的集成保证了能够很好的检测到显著物体序列。
(2)设计了动态规划算法作为能量最小化算法来求解全局最优的显著物体序列。其中,利用矩形框序列来标识显著物体序列,使得动态规划可以在个人电脑上直接求解一个全局最优的矩形框序列,而这个矩形框序列正好包围住视频中的每帧图像中的显著物体。
(3)局部、区域和全局的显著性特征被扩展到运动场上。每个像素点被指定一个权重用来描述运动场计算中可能出现的错误。运动显著性和静态显著性动态自适应的组合起来构成了最终的显著性图。
(4)时间和空间连续性以及全局主题模型被很好的定义并和显著性特征组合起来。其中,全局主题模型采用迭代方式建立起来。
附图说明
图1是方法工作所针对的视频序列示例图,
图2是方法的框架结构示意图。
图3是所提算法的流程框图。
图4是视频中显著物体检测的示例图。
图4(a)是使用来自于图4(b)中的显著性和图4(c)中的空间连续性在单帧图像上求解的结果。
图4(b)是组合静态和动态线索的显著性图。
图4(c)是空域连续性:到最近边缘的距离。
图4(d)是考虑到时域连续性的全局最优解。
图4(e)是从图4(d)中计算出的全局主题模型所产生的似然。
图4(f)本发明所提算法的最终输出结果。
图5是空域连续性。从左到右:原始图像,梯度图,到最近边缘的距离图。
图6是时域连续性的作用示意图。
图6(a)是只考虑显著性约束和空间连续性约束的求解结果。
图6(b)是加入时域连续性的最优求解结果。
图7是运动场显著性。
图7(a)是原始图像。
图7(b)是运动场(为了更好的显示效果放大2倍)。
图7(c)是权重图。
图7(d)是加权多尺度运动对比度。
图7(e)是加权中间-周围直方图。
图7(f)是加权运动场空间分布。
图7(g)是组合的运行场显著性。
图8是静态显著性和运动场显著性的组合。从左到右是滑雪板序列的第1-5帧图像。
图8(a)是连续输入图像。
图8(b)是运动场。
图8(c)是每帧图像上计算的运动场显著性。
图8(d)是自适应平滑的运动场显著性。
图8(e)是静态显著性。
图8(f)是静态显著性和运动场显著性自适应组合的结果。
图9是运动场显著性计算的流程框图。
图10是实验中的视频序列样本。每一帧都来自于一个视频序列,其上的矩形框是自动检测的显著物体。
图11是图1中所示视频序列中的显著物体自动检测结果。
下面结合附图对本发明的内容作进一步详细说明。
具体实施方式
(1)视频中显著物体序列检测的条件随机场模型
视频中显著物体序列检测的数学建模如下:假设视频可以表示为图像序列I1…T,其中T为总帧数。显著物体序列A1…T∈{0,1}为二值模板图序列,标明每个像素点是否为显著物体。显著物体序列检测的问题可以之间建模为给定观测数据I1…T的情况下A1…T的条件分布,即 P ( A 1 · · · T | I 1 · · · T ) = 1 Z exp ( - Σ t E t ( A t | I 1 · · · T , A t ′ ≠ t ) ) , 其中t∈[1,T]是时间刻度,Z是归一化函数。显著物体序列A1…T可以通过最小化能量函数进行求解:
A 1 · · · T * = arg min A 1 · · · T Σ t E t ( A t | I 1 · · · T , A t ′ ≠ t ) - - - ( 1 )
能量函数定义了不同线索对显著物体序列检测的约束。本发明提出的线索及局部约束包括:显著性约束Ft,空间连续性
Figure A20081015032400143
时间连续性
Figure A20081015032400144
和全局主题模型Gt。假设这些线索对能量函数的贡献是相互独立的,那么能量函数Et(At|I1…T,At′≠t)可以定义为这些线索的线性组合:
Figure A20081015032400145
能量函数中的约束条件对求解显著物体序列至关重要,这些约束刻画了显著性物体序列所具有的特征。为了简化模型的求解问题,假设A1…T{0,1}具有矩形形状特征,因此At可以用四个参数进行表示,从而可以设计能量最小化算法对时空序列进行有效的求解。
(2)显著性约束:单帧图像的静态显著性和运动场的动态显著性
显著性约束是最为重要的线索,包含静态和动态显著性约束。显著性约束在能量函数中的代价计算如下:
F t ‾ ( A t , I t ) = Σ x : a x = 0 F t ( x ) + Σ x : a x = 1 ( 1 - F t ( x ) ) - - - ( 3 )
这里显著性特征Ft(x)标明每一个像素点x的重要程度。显著性特征Ft(x)由静态和动态显著性特征组成。静态显著性特征直接采用(Tie,IEEE CVPR’07)中局部、区域和全局显著性在颜色向量上的计算结果。同时这里将这组显著性特征扩展到运动场中,同时对运动场进行加权来标明运动场计算的可靠性。运动场的加权多尺度对比度,加权中间-周围直方图,加权运动场的空间分布等显著性特征线性组合起来构成动态显著性特征。对运动场显著性特征在时间域上进行自适应的平滑,然后和单帧图像中计算的静态线索进行自适应组合成为最终的显著性特征。
(3)空间连续性:矩形框与图像边缘的吻合度
空间连续性刻画了在同一帧图像里面的相邻位置像素点分别取显著物体和背景时所付出的代价。在这里显著物体被表示为一个矩形框,因此空间连续性被定义为刻画矩形框边界与真实的图像边缘之间的吻合程度,即
S C t ( A t , I t ) = λ S Σ x , x ′ δ ( a x ′ ≠ a x ) D E t ( x , I t ) - - - ( 4 )
这里
Figure A20081015032400153
表示像素点x到图像边缘的距离。Sobel算子用来计算图像的边界并自适应的选择门限值进行二值化可以获得图像的边缘信息。
(4)时间连续性:矩形框序列光滑性约束
时间连续性定义了相邻两帧图像中的显著物体在形状和表面特征上的相似度,其基于如下假设:同一显著物体在相邻两帧图像中的变化甚小。数学定义如下:
T C t ( A t , t + 1 , I t , t + 1 ) = β 1 S ( A t , A t + 1 ) + β 2 χ 2 ( A t , A t + 1 ) - - - ( 5 )
其中S(At,At+1)定义了相邻两帧图像中显著物体的形状相似度,而χ2(At,At+1)定义了相邻两帧图像中显著物体的表面模型之间的相似度,这里为颜色直方图的χ2距离。
(5)全局主题模型:所有帧的表面特征模型约束
全局主题模型定义了整个显著物体序列所共有的特征。由于事先并不知道显著物体序列的任何信息,因此全局主题模型采用一种迭代方式建立起来:开始仅仅依靠其它几项线索起作用进行全局求解,从第二次迭代开始每次利用前面的结果计算全局主题模型然后参与计算。这里提出了利用前次检测结果在整个序列里比较保守的收集显著物体和背景的样本策略,然后利用这些样本构造出显著物体的颜色直方图HF(b)和背景的颜色直方图HB(b),这里b表示直方图的位阶。有了这两个直方图模型以后,可以对每帧图像的每一个像素点计算一个似然,最后全局主题模型在能量函数中的贡献计算如下:
G t ( A t ) = Σ x ∈ A t H B ( b x ) H F ( b x ) + H B ( b x ) + Σ x ∉ A t H F ( b x ) H F ( b x ) + H B ( b x ) - - - ( 6 )
其中bx为像素点x的颜色直方图值。
(6)能量最小化算法:基于动态规划的推理
接着介绍能量最小化算法。前面提到基于像素点的这样一个三维随机场求解是非常具有挑战性的。假设图像的宽度和高度为:W=320,H=240,对于一个T=200帧的图像序列,求解空间2W×H×T将导致在个人计算机上不可能完成的计算量。尽管一些技术,比如图像分割(VideoCut,Siggraph’05)或者由粗到细(coarse-to-fine)技术,可以帮助减轻计算量,其离可以接受的计算量仍然很遥远。如果假设显著物体具有矩形形状,那么At可以由四个参数进行表示(中心,尺度),这样求解空间迅速下降到(W2×H2)T。这样动态规划算法可以设计来进行全空间搜索,从而获得全局最优的矩形框序列。另外,由于相邻帧图像的矩形框的变化相对来说比较小,这意味着由粗到细的算法能够被使用,从而求解空间可以进一步下降。
动态规划算法设计如下:假设At是状态变量(中心和尺度),Ut是相邻两帧之间矩形框变化的可能策略,那么最优值函数可以写作:
S t + 1 ( A t + 1 ) = arg min U t S t ( A t ) + E t ( A t ) - - - ( 7 )
其中At=T(At+1,Ut)从状态转移函数计算而来,E(At)即为前面定义的能量函数。目标函数的初始值为S0=0,前向算法可以用来进行最优值计算,从而获得全局最优的矩形框序列A1…T
参照图1所示,本发明主要解决视频序列中的显著物体序列的检测。对显著物体的旋转、变形和背景的移动和关照变化等没有限制。
参照图2所示,视频中显著物体序列检测的问题被建模为一个条件随机场模型,通过能量最小化算法来求解最优显著物体序列。具体来说,静态显著性和动态显著性、时间和空间连续性、以及全局主题模型等多种线索被集成在条件随机场模型下,设计了动态规划算法来进行推理求解,从而获得全局最优的矩形框序列。其中,动态显著性来自于运动场的局部、区域和全局的加权显著性特征。
参照图3所示,整个建模求解的算法流程如下:
1)计算静态显著性特征。这里直接采用(Tie,IEEE CVPR’07)提出的局部、区域和全局显著性特征计算来自每一帧图像的静态线索。
2)计算动态显著性特征,并与静态显著性特征自适应组合起来构成显著性特征约束。
3)计算每帧图像中的空间连续性。空间连续性描述了相邻像素被分别指定为物体和背景时所需要的代价。
4)计算相邻帧图像中显著物体的时间连续性。这里计算所有可能的显著物体之间的相似度。
5)利用前一次计算获得显著物体序列计算全局主题模型,并计算相应的能量贡献(从第二次迭代开始)。
6)利用动态规划算法进行全局最优求解,从而获得全局最优的显著物体序列。
7)当未满足收敛条件(输出序列不再变化或者达到一定的迭代次数)时跳转步骤5继续迭代求解。否则,输出矩形框序列作为最优的显著物体序列。
在第一次进行能量最小化计算的时候,用到静态和动态显著性、时间与空间连续性,即通常,这个能量定义能够获得一个比较宽松的显著物体序列。然后,通过比较保守的选择显著物体和背景的样本,来构建显著物体和背景的表面特征模型,从而获得全局主题模型的约束。从第二次迭代开始,能量函数包含了所有能量。
参照图4所示,从左到右是杂耍视频序列里的第1,21,88,107,132,146帧。
构建了一种“基准”方法,即使用条件随机场来建模视频中显著物体序列检测: P ( A 1 · · · T | I 1 · · · T ) = 1 Z exp ( - Σ t E t ( A t | I t ) ) , 但是指在能量函数里包含了来自显著性约束(静态和动态)以及空间连续性约束,即:
Figure A20081015032400192
可以看到,在此能量函数中没有包含空间连续性和全局主题模型等来自于时间序列上的约束。
其中组合了静态和动态线索的显著性图如图4(b)所示,空间连续性如图4(c)所示。而来只使用4(b)中的显著性和图4(c)中的空间连续性的来自自于上面的“基准”模型的求解如图4(a)所示。可以看到,在各帧之间求解的矩形框序列会有一个较大的变化。在图4(d)中考虑了时域连续性的全局最优求解结果中,结果变的更加平滑,但是仍然比较宽松。
图4(e)是从图4(f)中计算出的全局主题模型所产生的似然。全局主题模型定义了整个显著物体序列所共有的特征。利用前次检测结果在整个序列里比较保守的收集显著物体和背景的样本策略,然后利用这些样本构造出显著物体的颜色直方图HF(b)和背景的颜色直方图HB(b),这里b表示直方图的位阶。有了这两个直方图模型以后,可以对每帧图像的每一个像素点计算一个似然,最后全局主题模型在能量函数中的贡献计算如下:
G t ( A t ) = Σ x ∈ A t H B ( b x ) H F ( b x ) + H B ( b x ) + Σ x ∉ A t H F ( b x ) H F ( b x ) + H B ( b x ) - - - ( 5 )
其中bx为像素点x的颜色直方图值。加上如图4(e)的全局主题模型约束,图4(f)中的结果更加的准确。
参照图5所示,为了直接求解矩形框,二元代价函数从梯度代价转化到边缘距离代价。空间连续性刻画了在同一帧图像里面的相邻位置像素点分别取显著物体和背景时所付出的代价。在这里显著物体被表示为一个矩形框,因此空间连续性被定义为刻画矩形框边界与真实的图像边缘之间的吻合程度,即
S C t ( A t , I t ) = λ S Σ x , x ′ δ ( a x ′ ≠ a x ) D E t ( x , I t ) - - - ( 6 )
这里 D E t ( x , I t ) ∈ [ 0,1 ] 表示像素点x到图像边缘的归一化距离, λ s = 0.1 × W × H | L t | , 其中|Lt|为矩形框上像素点的个数,W和H为图像的宽度和高度。Sobel算子用来计算图像的边界并自适应的选择门限值进行二值化可以获得图像的边缘信息。
参照图6所示,图6(a)为上述“基准”模型在图像序列上的结果,图6(b)中连续时间连续性的加入使得结果更加的平滑。连续时间连续性定义了相邻两帧图像中的显著物体在形状和表面特征上的相似度,其基于如下假设:同一显著物体在相邻两帧图像中的变化甚小,其数学定义如下:
T C t ( A t , t + 1 , I t , t + 1 ) = β 1 S ( A t , A t + 1 ) + β 2 χ 2 ( A t , A t + 1 ) - - - ( 7 )
其中 S ( A t , A t + 1 ) = Σ { a x t , a x t + 1 , } | | a x t - a x t + 1 , | | 定义了相邻两帧图像中显著物体的形状相似度,而χ2(At,At+1)定义了相邻两帧图像中显著物体的表面模型之间的相似度,这里为颜色直方图的χ2距离。 β 1 = 0.5 × W × H W + H , β2=0.01为权值以保持与其它能量项的平衡。
参照图7所示,展示了加权的运动场显著性。从左到右是图像序列的第1,21,88,107,132,146帧图像。对于那些有显著运动的图像(第88,146帧),本文所提的显著性特征能够捕获物体的内部区域。对那些没有显著运动的图像(第1帧),运动显著性存在错误。这里采用对每个像素点在多尺度上利用Simoncelli滤波器(H.Farid,IEEE Trans.On Image Processing,13:496-508,2004)来计算运动场M。此处运动场表示为二维向量场,如图7(b)所示。为了避免运动场计算中可能的错误带来运动场显著性计算的错误,我们对运动场进行加权。假设在小范围内一致性更高的运动场具有更高的可靠性,加权权值计算如下:
W(x,M)=exp(-εc||V(x,M)||2)                  (8)
其中εc=0.2,V(x,M)是来自像素点x周围5×5的窗口内运动场的标准方差。可以看到,运动场越是杂乱的区域被赋予了越小的权重,如图图7(c)所示。
对于加权的运动场,扩展(Tie,IEEE CVPR’07)中的局部、区域全局性显著性特征到加权运动场中来计算运动场显著性特征:
加权多尺度对比度:
f M c ( x , M ) = Σ l = 1 L Σ x ′ ∈ N ( x ) W x l W x ′ l | | M l ( x ) - M l ( x ′ ) | | 2 - - - ( 9 )
加权中间-周围直方图:
f M h ( x , M ) ∝ Σ { x ′ | x ∈ R M * ( x ′ ) } w xx ′ W x ′ χ 2 ( R M * ( x ′ ) , R M s * ( x ′ ) ) - - - ( 10 )
加权运动场空间分布:
f M s ( x , M ) ∝ Σ m W x p ( m | M x ) ( 1 - V ( m ) ) - - - ( 11 )
其中Wx为运动场的权重,其它值的定义参见(Tie,IEEE CVPR’07)。使用同样的参数可以获得最终组合的加权运动场显著性特征:
F M ( x ) = Σ k λ k f M k ( x , M ) . - - - ( 12 )
参照图8所示,静态显著性和动态显著性自适应的组合起来构成最终的显著性约束。首先,由于动态显著性会有不连续出现,比较典型的来自于拍摄者手的抖动,或者运动场计算的错误。在时间域上对运动场显著性进行平滑非常重要。最简单的方法是直接在相邻两帧的运动场显著性之间进行平均,然而这将抹杀运动场显著性的作用。这里定义了加权组合方式:
F Mt ( x ) = S t S t + S t - 1 F Mt ( x ) + S t - 1 S t + S t - 1 F Mt - 1 ( x ) , - - - ( 13 )
这里St定义为权重,其给予具有强显著性的帧更大的权重,计算如下: S t = 1 - exp ( - β s D F M ) 1 + exp ( - β s D F M ) , 其中βs=0.1,定义了
Figure A20081015032400223
两个5×5的窗口区域里显著性的最大差,定义如下: D F M = max x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | - min x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | , 其中N(x)表明5×5的窗口邻域。自适应平滑的运动场显著性如图8(d)所示。
然后将动态显著性和静态显著性自适应组合起来构成最终的显著性约束:
Ft(x)=FSt(x)+St×FMt(x)      (14)
其中St为平滑的运动场显著性上重新计算的显著性强度,从定义中可以看到St∈[0,1]。对于图8(e)中的静态显著性,自适应组合结果如图8(f)所示。
参照图9所示,运动场显著性的计算及其自适应组合流程如下:
1)采用Simoncelli滤波器(H.Farid,IEEE Trans.On Image Processing,13:496-508,2004)计算出运动场;
2)根据运动场的一致性,利用方程(8)式计算来对每个像素的运动场可靠性加权;
3)针对加权运动场,分别利用(9)、(10)、(11)式来计算加权多尺度对比度、加权中间-周围直方图和加权运动场空间分布,并利用(Tie,IEEECVPR’07)中学到的参数进行加权组合;
4)利用(13)式,对计算出来的动态显著性在时间序列上进行平滑;
5)利用(14)式,将平滑过的动态显著性与静态显著性进行自适应的组合,获得最终的显著性特征。
参照图10所示,收集了大量的实验视频序列样本。每一帧都来自于一个视频序列,其上的矩形框是自动检测的显著物体。如(Tie,IEEE CVPR’07)中定义了基于区域的测度:精度(Pre.)、召回(Rec.)和F测度(F-measure),以及基于边缘的测度:边缘替代错误(BDE)。对于前述的基准方法,组合不同的静态显著性和动态显著性方法定义如下“基准”方法:
a)分别定义在颜色和加权运动场上的静态和动态显著性特征,即本发明所用的显著性特征;
b)Itti.等(IEEE Trans.on PAMI,1998,pp.1254-259)的显著性模型作为静态显著性,而(Carmi,Vision Research 46(26):4333-4345,2006)中的运动场多尺度对比度作为动态显著性。
c)Itti.等(IEEE Trans.on PAMI,1998,pp.1254-259)的显著性模型,而(IEEECVPR’05 pp631-637)中提出的视频“意外”(surprising)作为动态显著性。实验现实,本发明所用的基准方法(a)相比较基准方法(b)和(c),平均性能在F测度上提高了28%和31%,在边缘替代错误上减低了31%和43%。在加入时间连续性约束后,平均性能在F测度上提高了4%,在边缘替代错误上减低了8%。进一步加入全局主题模型以后,F测度再次提高37%,而边缘替代错误降低了50%。可以看到本发明所提的方法在性能上明显超过了当前的视频注意力检测算法。
参照图11所示,本发明提出的方法在图1中所示视频序列中的显著物体自动检测结果。可以看到,本发明所提的算法能够捕获住视频中的显著物体。

Claims (1)

1、基于学习的视频中显著物体序列自动检测方法,其特征在于,包括以下步骤:
1)计算静态显著性特征:局部、区域和全局显著性特征计算来自每一帧图像的静态线索;
2)计算动态显著性特征,并与静态显著性特征自适应组合起来构成显著性特征约束;
计算动态显著性特征方法如下:
采用对每个像素点在多尺度上利用Simoncelli滤波器来计算运动场M,对运动场进行加权,加权权值计算如下:W(x,M)=exp(-εc‖V(x,M)‖2),其中εc=0.2,V(x,M)是来自像素点x周围5×5的窗口内运动场的标准方差;
对于加权的运动场,扩展(Tie,IEEE CVPR’07)中的局部、区域全局性显著性特征到加权运动场中来计算运动场显著性特征:
加权多尺度对比度: f M c ( x , M ) = Σ l = 1 L Σ x ′ ∈ N ( x ) W x l W x ′ l | | M l ( x ) - M l ( x ′ ) | | 2 ,
加权中间-周围直方图: f M h ( x , M ) ∝ Σ { x ′ | x ∈ R M * ( x ′ ) } w xx ′ W x ′ χ 2 ( R M * ( x ′ ) , R M s * ( x ′ ) ) ,
加权运动场空间分布 f M s ( x , M ) ∝ Σ m W x p ( m | M x ) ( 1 - V ( m ) ) ,
其中Wx为运动场的权重,M是运动场向量,N(x)代表x周围一定区域内的像素集,L是总的层数,l代表当前层数,Ml是金字塔中第l层的二维运动场,Wx l是像素点x的权重,RM *是以x′为中心且包括x的矩形框内的统计直方图,
Figure A2008101503240002C4
是对应的周围矩形框内的统计直方图,wxx′是空间的距离上的权重,Wx′表明了像素点x′的权重,χ2表示直方图间的距离,V(m)为每个高斯元的空间分布方差,m代表高斯元序号。使用同样的参数可以获得最终组合的加权运动场显著性特征:
F M ( x ) = Σ k λ k f M k ( x , M )
运动显著性在时间维度上的自适应平滑,采用前后两帧运动显著特征的自适应组合方式:
F Mt ( x ) = S t S t + S t - 1 F Mt ( x ) + S t - 1 S t + S t - 1 F Mt - 1 ( x ) ,
这里St定义为权重,计算如下: S t = 1 - exp ( - β s D F M ) 1 + exp ( - β s D F M ) , 其中βs=0.1,定义了
Figure A2008101503240003C4
两个5×5的窗口区域里显著性的最大差,定义如下:
D F M = max x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | - mi n x Σ x ′ ∈ N ( x ) | | F M t ( x ′ ) | | , 其中N(x)表明5×5的窗口邻域;
将自适应平滑后的动态显著性和静态显著性自适应组合起来构成最终的显著性约束: F t ( x ) = F St + S t ‾ × F Mt ( x ) , 其中St为平滑的运动场显著性上重新计算的运动显著的权重,从定义中可以看到St∈[0,1];
3)计算每帧图像中的空间连续性,具体方法如下:
显著物体被表示为一个矩形框,空间连续性被定义为刻画矩形框边界与真实的图像边缘之间的吻合程度,即 S C t ( A t , I t ) = λ S Σ x , x ′ δ ( a x ′ ≠ a x ) D E t ( x , I t ) , 这里 D E t ( x , I t ) ∈ [ 0,1 ] 表示像素点x到图像边缘的归一化距离, λ s = 0.1 × W × H | L t | , 其中|Lt|为矩形框上像素点的个数,W和H为图像的宽度和高度,Sobel算子用来计算图像的边界并自适应的选择门限值进行二值化可以获得图像的边缘信息;
4)计算相邻帧图像中显著物体的时间连续性,时间连续性数学定义如下:
T C t ( A t , t + 1 , I t , t + 1 ) = β 1 S ( A t , A t + 1 ) + β 2 χ 2 ( A t , A t + 1 ) , 其中 S ( A t , A t + 1 ) = Σ { a x t , a x t + 1 , } | | a x t - a x t + 1 , | | 定义了相邻两帧图像中显著物体的形状相似度,而χ2(At,At+1)定义了相邻两帧图像中显著物体的表面模式之间的相似度,这里为颜色直方图的χ2距离, β 1 = 0.5 × W × H W + H , β2=0.01为权值以保持与其它能量项的平衡;
5)利用前一次计算获得显著物体序列计算全局主题模型,并计算相应的能量贡献,从第二次迭代开始;
利用前次检测结果在整个序列里比较保守的收集显著物体和背景的样本策略,然后利用这些样本构造出显著物体的颜色直方图HF(b)和背景的颜色直方图HB(b),这里b表示直方图的位阶,然后对每帧图像的每一个像素点计算一个似然,全局主题模型在能量函数中的贡献计算如下:
G t ( A t ) = Σ x ∈ A t H B ( b x ) H F ( b x ) + H B ( b x ) + Σ x ∉ A t H F ( b x ) H F ( b x ) + H B ( b x ) , 其中bx为像素点x的颜色直方图值;
6)利用动态规划算法进行全局最优求解,从而获得全局最优的显著物体序列;
视频中显著物体序列检测的数学建模如下:视频可以表示为图像序列I1…T,其中T为总帧数,显著物体序列A1…T∈{0,1}为二值模板图序列,标明每个像素点是否为显著物体,计算给定观测数据I1…T的情况下A1…T的条件分布,即 P ( A 1 . . . T | I 1 . . . T ) = 1 Z exp ( - Σ t E t ( A t | I 1 . . . T , A t ′ ≠ t ) ) , 其中t∈[1,T]是时间刻度,Z是归一化函数,显著物体序列A1…T通过最小化能量函数进行求解:
A 1 . . . T * = arg min A 1 . . . T Σ t E t ( A t | I 1 . . . T , A t ′ ≠ t ) - - - ( 1 )
能量函数Et(At|I1…T,At′≠t)可以定义为这些线索的线性组合:
Figure A2008101503240004C5
Ft为显著性约束,为空间连续性,
Figure A2008101503240005C2
为时间连续性,Gt为全局主题模型;
动态规划算法设计如下:At是状态变量(中心和尺度),Ut是相邻两帧之间矩形框变化的可能策略,那么最优值函数可以写作:
S t + 1 ( A t + 1 ) = arg min U t S t ( A t ) + E t ( A t ) - - - ( 3 )
其中At=T(At+1,Ut)从状态转移函数计算而来,E(At)为(2)式定义的能量函数,目标函数的初始值为S0=0,前向算法可以用来进行最优值计算,获得全局最优的矩形框序列A1…T,在第一次进行能量最小化计算的时候,用到静态和动态显著性、时间与空间连续性,即:
Figure A2008101503240005C4
7)当未满足收敛条件,输出序列不再变化或者达到一定的迭代次数时跳转步骤5)继续迭代求解,否则,输出矩形框序列作为最优的显著物体序列。
CN2008101503248A 2008-07-11 2008-07-11 基于学习的视频中显著物体序列自动检测方法 Expired - Fee Related CN101329767B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008101503248A CN101329767B (zh) 2008-07-11 2008-07-11 基于学习的视频中显著物体序列自动检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008101503248A CN101329767B (zh) 2008-07-11 2008-07-11 基于学习的视频中显著物体序列自动检测方法

Publications (2)

Publication Number Publication Date
CN101329767A true CN101329767A (zh) 2008-12-24
CN101329767B CN101329767B (zh) 2011-11-16

Family

ID=40205562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101503248A Expired - Fee Related CN101329767B (zh) 2008-07-11 2008-07-11 基于学习的视频中显著物体序列自动检测方法

Country Status (1)

Country Link
CN (1) CN101329767B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101930597A (zh) * 2010-08-10 2010-12-29 浙江大学 一种基于数学形态学的图像边缘检测方法
CN102713938A (zh) * 2010-01-08 2012-10-03 高通股份有限公司 用于均匀和非均匀照明变化中的改善的特征检测的尺度空间正规化技术
CN103020974A (zh) * 2012-12-31 2013-04-03 哈尔滨工业大学 基于显著区域差异和显著密度实现显著物体自动检测的方法
CN102088597B (zh) * 2009-12-04 2013-10-30 成都信息工程学院 动静结合估计视频视觉显著度的方法
CN103455976A (zh) * 2012-05-31 2013-12-18 北京三星通信技术研究有限公司 人体图像解析装置和方法
WO2015028842A1 (en) 2013-08-28 2015-03-05 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A semi automatic target initialization method based on visual saliency
CN104424642A (zh) * 2013-09-09 2015-03-18 华为软件技术有限公司 一种视频显著性区域检测方法及系统
US9014467B2 (en) 2011-05-13 2015-04-21 Omron Corporation Image processing method and image processing device
CN105342769A (zh) * 2015-11-20 2016-02-24 宁波大业产品造型艺术设计有限公司 智能电动轮椅
CN105913456A (zh) * 2016-04-12 2016-08-31 西安电子科技大学 基于区域分割的视频显著性检测方法
CN105959663A (zh) * 2016-05-24 2016-09-21 厦门美图之家科技有限公司 视频帧间信号连续性的优化处理方法、系统及拍摄终端
CN106296638A (zh) * 2015-06-04 2017-01-04 欧姆龙株式会社 显著性信息取得装置以及显著性信息取得方法
CN106650816A (zh) * 2016-12-28 2017-05-10 深圳信息职业技术学院 一种视频质量评价方法和装置
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN107194948A (zh) * 2017-04-17 2017-09-22 上海大学 基于集成式预测与时空域传播的视频显著性检测方法
CN107451595A (zh) * 2017-08-04 2017-12-08 河海大学 基于混合算法的红外图像显著性区域检测方法
US10055666B2 (en) 2014-05-08 2018-08-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Real-time, semi-automatic method for target tracking window initialization in thermal imagery
CN108961261A (zh) * 2018-03-14 2018-12-07 中南大学 一种基于空间连续性约束的视盘区域oct图像层次分割方法
CN109033204A (zh) * 2018-06-29 2018-12-18 浙江大学 一种基于万维网的层次积分直方图可视查询方法
CN109101646A (zh) * 2018-08-21 2018-12-28 北京深瞐科技有限公司 数据处理方法、装置、系统及计算机可读介质
CN110933435A (zh) * 2019-11-29 2020-03-27 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN111738928A (zh) * 2020-04-30 2020-10-02 南京图格医疗科技有限公司 一种基于概率优化和神经网络的内窥镜去雾方法及装置
CN112489086A (zh) * 2020-12-11 2021-03-12 北京澎思科技有限公司 目标跟踪方法、目标跟踪装置、电子设备及存储介质
CN113436113A (zh) * 2021-07-22 2021-09-24 黑芝麻智能科技有限公司 防抖动的图像处理方法、装置、电子设备和存储介质
US11430205B2 (en) 2017-06-23 2022-08-30 Huawei Technologies Co., Ltd. Method and apparatus for detecting salient object in image

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088597B (zh) * 2009-12-04 2013-10-30 成都信息工程学院 动静结合估计视频视觉显著度的方法
CN102713938A (zh) * 2010-01-08 2012-10-03 高通股份有限公司 用于均匀和非均匀照明变化中的改善的特征检测的尺度空间正规化技术
CN102713938B (zh) * 2010-01-08 2015-05-13 高通股份有限公司 用于均匀和非均匀照明变化中的改善的特征检测的尺度空间正规化技术
CN101930597B (zh) * 2010-08-10 2012-05-02 浙江大学 一种基于数学形态学的图像边缘检测方法
CN101930597A (zh) * 2010-08-10 2010-12-29 浙江大学 一种基于数学形态学的图像边缘检测方法
US9014467B2 (en) 2011-05-13 2015-04-21 Omron Corporation Image processing method and image processing device
CN103455976A (zh) * 2012-05-31 2013-12-18 北京三星通信技术研究有限公司 人体图像解析装置和方法
CN103455976B (zh) * 2012-05-31 2018-07-20 北京三星通信技术研究有限公司 人体图像解析装置和方法
CN103020974B (zh) * 2012-12-31 2015-05-13 哈尔滨工业大学 基于显著区域差异和显著密度实现显著物体自动检测的方法
CN103020974A (zh) * 2012-12-31 2013-04-03 哈尔滨工业大学 基于显著区域差异和显著密度实现显著物体自动检测的方法
US9595114B2 (en) 2013-08-28 2017-03-14 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Semi automatic target initialization method based on visual saliency
WO2015028842A1 (en) 2013-08-28 2015-03-05 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A semi automatic target initialization method based on visual saliency
CN104424642A (zh) * 2013-09-09 2015-03-18 华为软件技术有限公司 一种视频显著性区域检测方法及系统
US10055666B2 (en) 2014-05-08 2018-08-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Real-time, semi-automatic method for target tracking window initialization in thermal imagery
CN106296638A (zh) * 2015-06-04 2017-01-04 欧姆龙株式会社 显著性信息取得装置以及显著性信息取得方法
CN105342769A (zh) * 2015-11-20 2016-02-24 宁波大业产品造型艺术设计有限公司 智能电动轮椅
CN105913456A (zh) * 2016-04-12 2016-08-31 西安电子科技大学 基于区域分割的视频显著性检测方法
CN105913456B (zh) * 2016-04-12 2019-03-26 西安电子科技大学 基于区域分割的视频显著性检测方法
CN105959663A (zh) * 2016-05-24 2016-09-21 厦门美图之家科技有限公司 视频帧间信号连续性的优化处理方法、系统及拍摄终端
CN105959663B (zh) * 2016-05-24 2018-09-21 厦门美图之家科技有限公司 视频帧间信号连续性的优化处理方法、系统及拍摄终端
CN106650816A (zh) * 2016-12-28 2017-05-10 深圳信息职业技术学院 一种视频质量评价方法和装置
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN106875396B (zh) * 2016-12-28 2020-12-01 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN107194948A (zh) * 2017-04-17 2017-09-22 上海大学 基于集成式预测与时空域传播的视频显著性检测方法
US11430205B2 (en) 2017-06-23 2022-08-30 Huawei Technologies Co., Ltd. Method and apparatus for detecting salient object in image
CN107451595A (zh) * 2017-08-04 2017-12-08 河海大学 基于混合算法的红外图像显著性区域检测方法
CN108961261A (zh) * 2018-03-14 2018-12-07 中南大学 一种基于空间连续性约束的视盘区域oct图像层次分割方法
CN108961261B (zh) * 2018-03-14 2022-02-15 中南大学 一种基于空间连续性约束的视盘区域oct图像层次分割方法
CN109033204B (zh) * 2018-06-29 2021-10-08 浙江大学 一种基于万维网的层次积分直方图可视查询方法
CN109033204A (zh) * 2018-06-29 2018-12-18 浙江大学 一种基于万维网的层次积分直方图可视查询方法
CN109101646A (zh) * 2018-08-21 2018-12-28 北京深瞐科技有限公司 数据处理方法、装置、系统及计算机可读介质
CN110933435A (zh) * 2019-11-29 2020-03-27 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN110933435B (zh) * 2019-11-29 2022-07-12 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN111738928B (zh) * 2020-04-30 2021-04-13 南京图格医疗科技有限公司 一种基于概率优化和神经网络的内窥镜去雾方法
CN111738928A (zh) * 2020-04-30 2020-10-02 南京图格医疗科技有限公司 一种基于概率优化和神经网络的内窥镜去雾方法及装置
CN112489086A (zh) * 2020-12-11 2021-03-12 北京澎思科技有限公司 目标跟踪方法、目标跟踪装置、电子设备及存储介质
CN113436113A (zh) * 2021-07-22 2021-09-24 黑芝麻智能科技有限公司 防抖动的图像处理方法、装置、电子设备和存储介质
US11770613B2 (en) 2021-07-22 2023-09-26 Black Sesame Technologies Inc. Anti-shake image processing method, apparatus, electronic device and storage medium

Also Published As

Publication number Publication date
CN101329767B (zh) 2011-11-16

Similar Documents

Publication Publication Date Title
CN101329767A (zh) 基于学习的视频中显著物体序列自动检测方法
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
Lalonde et al. Detecting ground shadows in outdoor consumer photographs
Aslani et al. Optical flow based moving object detection and tracking for traffic surveillance
Sheikh et al. Bayesian modeling of dynamic scenes for object detection
CN104182772B (zh) 一种基于深度学习的手势识别方法
Han et al. Density-based multifeature background subtraction with support vector machine
CN101447082B (zh) 一种运动目标实时检测方法
CN107944403B (zh) 一种图像中的行人属性检测方法及装置
CN107194946B (zh) 一种基于fpga的红外显著物体检测方法
CN103262119A (zh) 用于对图像进行分割的方法和系统
Patil et al. Motion saliency based generative adversarial network for underwater moving object segmentation
Filonenko et al. Real-time flood detection for video surveillance
CN104766065A (zh) 基于多视角学习的鲁棒性前景检测方法
CN105046278A (zh) 基于Haar特征的Adaboost检测算法的优化方法
Zhang et al. Rethinking the defocus blur detection problem and a real-time deep DBD model
Nguyen et al. UnfairGAN: An enhanced generative adversarial network for raindrop removal from a single image
CN115482523A (zh) 轻量级多尺度注意力机制的小物体目标检测方法及系统
Javed et al. Combining ARF and OR-PCA for robust background subtraction of noisy videos
CN107133964A (zh) 一种基于Kinect的抠像方法
CN100423021C (zh) 用于低景深图像分割的方法和装置
Liu et al. A Generative Adversarial Network for infrared and visible image fusion using adaptive dense generator and Markovian discriminator
Schulz et al. Object-class segmentation using deep convolutional neural networks
Sharir et al. Video object segmentation using tracked object proposals

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111116

Termination date: 20170711

CF01 Termination of patent right due to non-payment of annual fee