CN103065326A - 基于时-空多尺度运动注意力分析的目标检测方法 - Google Patents

基于时-空多尺度运动注意力分析的目标检测方法 Download PDF

Info

Publication number
CN103065326A
CN103065326A CN2012105717878A CN201210571787A CN103065326A CN 103065326 A CN103065326 A CN 103065326A CN 2012105717878 A CN2012105717878 A CN 2012105717878A CN 201210571787 A CN201210571787 A CN 201210571787A CN 103065326 A CN103065326 A CN 103065326A
Authority
CN
China
Prior art keywords
motion
centerdot
motion vector
time
notice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105717878A
Other languages
English (en)
Other versions
CN103065326B (zh
Inventor
刘龙
王攀
赵晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201210571787.8A priority Critical patent/CN103065326B/zh
Publication of CN103065326A publication Critical patent/CN103065326A/zh
Application granted granted Critical
Publication of CN103065326B publication Critical patent/CN103065326B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种时-空多尺度运动注意力分析的目标检测方法,具体按照以下步骤实施:步骤1、创建时-空运动融合注意力模型;步骤2、对运动矢量场进行时-空滤波,在时间维度上,通过对运动矢量场滤波得到不同时间尺度下的运动矢量场,并按照一定原则选取最佳时间尺度;步骤3、进行多尺度运动注意力融合。本发明的方法优点是:1)选择合适的时间尺度处理运动矢量场并进行注意力计算,减少了光流估算错误等因素对目标检测的影响,克服了传统方法的局限性。2)在全局运动场景下能有效地检测运动目标区域,具有比同类方法更好的鲁棒性。

Description

基于时-空多尺度运动注意力分析的目标检测方法
技术领域
本发明属于图像分割技术领域,涉及一种基于时-空多尺度运动注意力分析的目标检测方法。
背景技术
运动目标检测是一项具有挑战性的研究工作,由于其在社会和军事领域有着广泛的应用价值,为目标识别、目标行为理解、视频内容分析等提供了技术基础,因此成为视频分析领域的研究热点问题之一。
运动目标检测根据镜头静止和运动两种情况,可分为局部运动场景和全局运动场景下目标检测。局部运动场景下的目标检测主要采用背景差分法和帧间差分法。背景差分法是通过构建背景,并与当前帧作差分获取目标区域,其优点在于能完整地检测出所有运动目标,其缺点在于背景的选取和更新会消耗大量时间;帧间差分法是通过时间上相近的前后帧作差分获取目标初始位置,其优点是能快速地获得当前目标区域,缺点是目标检测结果可能出现空洞区域,检测效果不理想。
在全局运动场景下,由于背景不断变化,背景差分法和帧间差分法并不适用,只能通过对光流场的分析处理确定目标区域。目前,采用的主要方法是全局运动补偿策略,全局运动补偿策略的关键环节是全局运动估计,其主要思路是通过使目标帧和参考帧的误差函数最小化获得全局运动参数,假定从参考帧到目标帧的运动场用d(x;a)表示,其中a表示全局运动参数,则预测误差是:
Figure BDA00002653236000021
其中,xn表示像素,
Figure BDA00002653236000022
表示估计全局运动所用的所有像素,wn是像素xn的加权系数,全局运动补偿的目标检测方法主要流程如图1所示。
全局运动估计的精确性受到两个方面的因素影响:1)光流估算本身缺陷导致的错误结果,当图像纹理变化平坦时,光流估算会出现较大误差,导致在许多复杂情况下不能真实描述运动变化信息;2)目标大小和运动强度的影响,当目标所占图像面积较大或运动较强烈时,场景内运动信息受目标影响较大。上述两种因素都使全局运动估算的难度增大,限制了全局运动估计补偿策略的目标检测效果和适用范围。
近些年,视觉感知研究逐渐融入了人类生理和心理的研究成果,尤其是关于视觉注意力的研究,2002年Itti和Koch等人提出了注意力区域的概念,并建立了亮度、颜色和方向等静态图像特征为主的视觉注意力模型,这一概念首次引入了人类视觉对图像观察本身的特性,它与图像具体内容无关,取决于构成图像的元素自身引起的视觉反差,反差越大的区域就越容易吸引起视觉系统的注意力。
在后续的研究中,人们还在注意力模型中加入了动态注意力,Guironnet,M.等将静态注意力和动态注意力融合,并在时间上对显著图进行滤波处理,最终获取注意力区域。Yu-Fei Ma根据从MPEG码流中解压所得到的运动矢量场的运动矢量能量、空间相关性和时间相关性综合定义了运动注意力模型,通过该模型可以得到运动显著性区域,应用于视频检索。
近些年来,人们还尝试采用注意力计算方法解决目标检测和分割的问题,Zhiwen Yu等对静止图像的注意力区域计算进行了区域分级处理,使注意力区域逐渐逼近目标对象区域,建立了数据驱动机理的视觉注意力和视觉高层语义之间的关系。Junwei Han将注意力分为静态注意力和动态注意力两种,静态注意力主要由图像的亮度、颜色等信息引起,动态注意力是在全局运动补偿的基础上计算区域的变化像素的比例进行定义的,注意力模型最终由静态注意力和动态注意力融合得到主要应用于运动目标检测。YumingFang等提出了一种自底向上和自顶向下相结合的视觉注意力模型用于检测人造运动目标,该模型选取了自底向上亮度注意力特征和自顶向下的朝向特征进行融合获取目标区域。
虽然现有文献的研究方法都涉及采用注意力机制解决目标检测或分割问题,但对于在全局运动场景下的目标检测问题,这些方法都有其局限性,比如,仅仅针对了静止图像目标检测问题;虽然建立了动态注意力模型,但其方法仍然依靠全局运动补偿实现;对目标的检测注意使用了亮度注意力和方向注意力,并且对目标具备一定的先验知识。
发明内容
本发明的目的是提供一种基于时-空多尺度运动注意力分析的目标检测方法,解决了现有技术中,虽然都涉及采用注意力机制解决目标检测或分割问题,但对于在全局运动场景下的目标检测,这些方法都有其局限性的问题。
本发明所采用的技术方案是,一种时-空多尺度运动注意力分析的目标检测方法,该方法按照以下步骤具体实施:
步骤1、创建时-空运动融合注意力模型
在时间维度上,邻域内定义运动矢量差值描述时间注意力因子,定义
Figure BDA00002653236000031
的时间注意力因子是: A k , i , j T = | ΔV | = | V → k , i , j - V → k - 1 , i , j | , - - - ( 2 )
式中的
Figure BDA00002653236000033
Figure BDA00002653236000034
分别代表在k帧和k-1帧中坐标位置为(i,j)的运动矢量,
假定MBk,i,j是k帧中坐标为(i,j)的宏块,i和j分别表示宏块的横纵坐标;Λk,i,j表示包含宏块MBk,i,j及其相邻宏块的集合,那么定义
Figure BDA00002653236000041
的空间注意力因子是: A k , i , j S = a · | V → k , i , j - u → k , i , j | + b · PLog 1 P , - - - ( 3 )
式中的a,b是系数,
Figure BDA00002653236000043
分别代表在k帧中坐标位置为(i,j)的运动矢量,·代表系数与矢量的乘积,其中
Figure BDA00002653236000044
P为当前运动场矢量估算的正态高斯概率函数,其表达式为 P = 1 2 π δ exp [ - 1 2 ( v → - u ^ δ ^ ) 2 ] , 其中的
Figure BDA00002653236000046
Figure BDA00002653236000047
由无偏估计决定, u ^ = 1 N Σ V ‾ k , δ ^ = 1 N - 1 Σ ( V → k - V ‾ k ) ,
本方法定义运动注意力模型为时间和空间注意力因子的线性融合模型,线性组合是: A k , i , j = α · A k , i , j T + β · A k , i , j S , - - - ( 4 )
其中的α、β为正值的系数,
最终借鉴融合模型进行运动注意力融合,公式如下:
A ~ k , i , j = A k , i , j + 1 2 δ · max ( A k , i , j T , A k , i , j S ) · σ
= α · A k , i , j T + β · A k , i , j S + 1 2 δ · max ( A k , i , j T , A k , i , j S ) · | A k , i , j T - A k , i , j S | , - - - ( 5 )
其中δ为正值,公式(5)中的后半部分代表时-空对注意力影响的偏置;
步骤2、对运动矢量场进行时-空滤波
时间尺度滤波定义是:假设运动矢量场时间序列为
Figure BDA000026532360000413
Figure BDA000026532360000414
指t时刻运动矢量场中的运动矢量,那么低通滤波后的运动矢量场
Figure BDA000026532360000415
由以下迭代公式确定: ML i ( v → , t ) = ∂ i · ML i ( v → , t - 1 ) + ( 1 - ∂ i ) · MVF ( v → , t ) , - - - ( 6 )
公式中,t>0,Mv为初始化系数,
滤波系数
Figure BDA000026532360000418
决定了当前运动场在滤波后所占的程度大小,运动场的滤波效果取决于
Figure BDA00002653236000051
系数的大小;的取值需要考虑运动场的时间频率和所需的时间尺度,上述公式变形为下式:
ML i ( v → , t ) = ( 1 - ∂ i ) · Σ j = 1 t ∂ i t - j · MVF ( v → , t ) + ∂ i t · M v , - - - ( 7 )
式中,MLi为滤波后的运动矢量场,在时间滤波后,对运动矢量进行空间上的中值滤波处理得到真正反映视频对象运动的运动矢量,
运动矢量中值滤波过程如下:对于每一个非零运动矢量,用相邻的运动矢量中值代替其值,
在空间维度上,采用多分辨率分析理论,将图像帧在空间上进行多分辨率分解,在不同尺度空间中进行运动估计,选用具有紧支集的正交小波基来构造滤波器进行分解,多尺度分解后,在每个级别的低频尺度空间上作运动估计,得到不同尺度下的运动矢量场;
步骤3、进行多尺度运动注意力融合
融合过程考虑了图像像素分布的相关性,相关性程度高的像素宏块进行合并,采用共生矩阵的相关性系数来衡量当前像素块的像素值分布特点,共生矩阵的相关系数是用来衡量共生矩阵中元素在行或列方向上的相似程度,设f为大小m×n的图像,则相关系数是:
Cor = Σ i , j = 0 N g - 1 P i , j [ ( i - u i ) · ( j - u j ) δ i 2 · δ j 2 ] , - - - ( 8 )
式(8)中, u i = Σ i , j = 0 N g - 1 i · P ( i , j ) ,
u j = Σ i , j = 0 N g - 1 j · P ( i , j ) ,
δ i 2 = Σ i , j = 0 N g - 1 P ( i , j ) · ( i - u i ) 2 ,
δ j 2 = Σ i , j = 0 N g - 1 P ( i , j ) · ( j - u j ) 2 ,
多尺度注意力融合的具体过程是:判断第n层Cor(PBi,j)与阈值T作比较,若Cor(PBi,j)>T,说明像素的分布相关性大,光流运动估算的出现误差的可能性小,则选择当前宏块对应的注意力值,并按照四叉树形式将下一尺度对应的四个宏块注意力值进行赋值;
若Cor(PBi,j)<T,说明像素的分布相关性小,光流运动估算的出现误差的可能性大,因此该宏块不取当前值,按照从低尺度向高尺度逐层判断的顺序,最终得到融合后的注意力图。
本发明的有益效果是:1)本方法根据光流估算的运动场时-空运动矢量分布定义注意力显著图,选择合适的时间尺度处理运动矢量场并进行注意力计算,并融合多个空间尺度的注意力得到运动注意力图,采用形态学等方法最终提取目标区域,减少了光流估算错误等因素对目标检测的影响,克服了传统方法的局限性。2)多个不同视频序列测试的结果显示本方法在全局运动场景下能有效地检测运动目标区域,具有比同类方法更好的鲁棒性。
附图说明
图1是本发明方法所用到的全局运动补偿原理示意图。
图2是本发明方法中的运动矢量在空间的运动反差示意图;
图3是本发明方法中的运动矢量在时间的运动反差示意图;
图4是本发明方法在经过时-空滤波后的运动矢量场的“蜂鸟”原始帧;
图5是图4对应的原始运动矢量场;
图6是图4对应的时间滤波后的动矢量场;
图7是图4对应的时-空滤波后的运动矢量场;
图8是本发明方法自顶而下的融合过程示意图;
图9是本发明方法空间多尺度注意力融合过程中的“蜂鸟”原始帧;
图10是图9对应的时-空滤波后的运动矢量场;
图11是图9对应的次低尺度运动矢量场;
图12是图9对应的低尺度运动矢量场,
图13是图9对应的原始层注意力图,
图14是图9对应的次低尺度注意力图,
图15是图9对应的低尺度层注意力图,
图16是图9对应的融合后注意力图;
图17是本发明方法的运动目标区域的初步测试结果一;
图18是本发明方法的运动目标区域的初步测试结果二;
图19是第一组实施例测试图像的原始帧;
图20是采用本发明方法初步融合后的图19对应的注意力图;
图21是采用本发明方法最后得到的图19对应的运动目标区域;
图22是另一组实施例测试图像的原始帧;
图23是采用本发明方法初步融合后的图22对应的注意力图;
图24是采用本发明方法最后得到的图22对应的运动目标区域。
具体实施方式
如图1所示,本发明方法利用了全局运动补偿的目标检测方法,其主要流程包括设置参数、运动估计、全局运动估计、全局运动补偿、运动目标区域提取;运动估计还可以绕过全局运动估计直接转到全局运动补偿。
本发明的时-空多尺度运动注意力分析的目标检测方法,具体按照以下步骤实施:
步骤1、创建时-空运动融合注意力模型
运动矢量场反映了视频信号中的运动信息,运动目标在全局场景中与镜头运动形成运动反差形成运动注意力,这种运动反差在运动矢量场中表现为运动矢量时-空分布的不一致性,图2和图3分别显示了运动矢量在空间和时间上的运动反差。本发明将根据运动矢量在时间和空间上的分布特点定义时-空运动融合注意力模型。
本发明方法采用运动矢量在时-空上的变化程度描述运动反差的强烈程度,变化程度越小意味着运动矢量运动反差越小,引起注意的因素越低;反之则反差越大,引起注意的因素越高。
在时间维度上,邻域内定义运动矢量差值描述时间注意力因子,定义
Figure BDA00002653236000081
的时间注意力因子是: A k , i , j T = | ΔV | = | V → k , i , j - V → k - 1 , i , j | , - - - ( 2 )
式中,
Figure BDA00002653236000083
Figure BDA00002653236000084
分别代表在k帧和k-1帧中坐标位置为(i,j)的运动矢量,
在空间维度上,注意力由两部分构成,一方面采用运动矢量空间邻域内的运动矢量均值与该运动矢量的差值来描述局部注意力程度,另一方面,对当前运动场的所有运动矢量进行高斯建模,采用运动矢量的熵衡量其在整个运动场的注意力程度。
具体定义如下,假定MBk,i,j是k帧中坐标为(i,j)的宏块,i和j分别表示宏块的横纵坐标;Λk,i,j表示包含宏块MBk,i,j及其相邻宏块的集合,那么定义
Figure BDA00002653236000085
的空间注意力因子是:
A k , i , j S = a · | V → k , i , j - u → k , i , j | + b · PLog 1 P , - - - ( 3 )
式中的a,b是系数,
Figure BDA00002653236000087
分别代表在k帧中坐标位置为(i,j)的运动矢量,·代表系数与矢量的乘积,其中
Figure BDA00002653236000088
P为当前运动场矢量估算的正态高斯概率函数,其表达式为 P = 1 2 π δ exp [ - 1 2 ( v → - u ^ δ ^ ) 2 ] , 其中的
Figure BDA000026532360000810
Figure BDA000026532360000811
由无偏估计决定, u ^ = 1 N Σ V ‾ k , δ ^ = 1 N - 1 Σ ( V → k - V ‾ k ) .
由于运动注意力包含时间和空间两方面的因素,因此运动注意力模型的构建需要考虑时间注意力与空间注意力两方面的信息融合,本发明方法定义运动注意力模型为时间和空间注意力因子的线性融合模型,线性组合是:
A k , i , j = α · A k , i , j T + β · A k , i , j S , - - - ( 4 )
其中的α、β为正值的系数。
如公式(4)所示,线性运算具备了简洁和高效的模型构成,但从时间和空间对注意力影响的角度看,其不足以合理反映出时间与空间注意力的影响对比的变化。本发明方法基于时间和空间注意力在不同时刻对注意力的影响偏重是不同的,这取决于这两方面运动反差大小的变化,因此在运动注意力模型中,应加入对注意力的影响力变化的部分,这样才能真正有效反映客观变化,因此,最终借鉴融合模型进行运动注意力融合,公式如下:
A ~ k , i , j = A k , i , j + 1 2 δ · max ( A k , i , j T , A k , i , j S ) · σ
= α · A k , i , j T + β · A k , i , j S + 1 2 δ · max ( A k , i , j T , A k , i , j S ) · | A k , i , j T - A k , i , j S | , - - - ( 5 )
其中δ为正值,公式(5)中的后半部分代表时-空对注意力影响的偏置,其反映了时间和空间注意力中影响力变化时,较大者对注意力的整体影响。
步骤2、对运动矢量场进行时-空滤波
在时间维度上,通过对运动矢量场滤波得到不同时间尺度下的运动矢量场,并按照一定原则选取最佳时间尺度。
时间尺度滤波定义是,假设运动矢量场时间序列为
Figure BDA00002653236000096
Figure BDA00002653236000097
指t时刻运动矢量场中的运动矢量,那么低通滤波后的运动矢量场
Figure BDA00002653236000098
由以下迭代公式确定: ML i ( v → , t ) = ∂ i · ML i ( v → , t - 1 ) + ( 1 - ∂ i ) · MVF ( v → , t ) , - - - ( 6 )
公式(6)中,t>0,
Figure BDA00002653236000101
Mv为初始化系数,滤波系数
Figure BDA00002653236000102
决定了当前运动场在滤波后所占的程度大小,运动场的滤波效果取决于
Figure BDA00002653236000103
系数的大小;
Figure BDA00002653236000104
的取值需要考虑运动场的时间频率和所需的时间尺度,上述公式变形为下式:
ML i ( v → , t ) = ( 1 - ∂ i ) · Σ j = 1 t ∂ i t - j · MVF ( v → , t ) + ∂ i t · M v , - - - ( 7 )
公式(7)中,MLi为滤波后的运动矢量场。在时间滤波后,对运动矢量进行空间上的中值滤波处理得到真正反映视频对象运动的运动矢量。
运动矢量中值滤波过程如下:对于每一个非零运动矢量,用相邻的运动矢量中值代替其值。
图4-图7显示了在经过时-空滤波后的运动矢量场,其中的图4是视频的原始帧,图5是原始运动矢量场,图6是经过时间滤波后的运动矢量场,图7是经过时-空滤波后的运动矢量场。
在空间维度上,本发明方法采用Mallat提出多分辨率分析理论,将图像帧在空间上进行多分辨率分解,在不同尺度空间中进行运动估计。选用具有紧支集的正交小波基来构造滤波器进行分解,多尺度分解后,在每个级别的低频尺度空间上作运动估计,得到不同尺度下的运动矢量场。
步骤3、进行多尺度运动注意力融合
为消除光流估计的误差,本发明方法将多尺度空间注意力进行融合得到最终的注意力结果。融合过程考虑了图像像素分布的相关性,为减少光流估算存在的误差,相关性程度高的像素宏块进行合并。本发明方法采用共生矩阵的相关性系数来衡量当前像素块的像素值分布特点,共生矩阵的相关系数是用来衡量共生矩阵中元素在行或列方向上的相似程度,
相关系数定义如下:设f为大小m×n的图像,则相关系数是:
Cor = Σ i , j = 0 N g - 1 P i , j [ ( i - u i ) · ( j - u j ) δ i 2 · δ j 2 ] , - - - ( 8 )
公式(8)中, u i = Σ i , j = 0 N g - 1 i · P ( i , j ) , u j = Σ i , j = 0 N g - 1 j · P ( i , j ) , δ i 2 = Σ i , j = 0 N g - 1 P ( i , j ) · ( i - u i ) 2 , δ j 2 = Σ i , j = 0 N g - 1 P ( i , j ) · ( j - u j ) 2 .
多尺度注意力融合过程:判断第n层Cor(PBi,j)与阈值T作比较;若Cor(PBi,j)>T,说明像素的分布相关性大,光流运动估算的出现误差的可能性小,则选择当前宏块对应的注意力值,并按照四叉树形式将下一尺度对应的四个宏块注意力值进行赋值;若Cor(PBi,j)<T,说明像素的分布相关性小,光流运动估算的出现误差的可能性大,因此该宏块不取当前值。按照图8所示的从低尺度向高尺度逐层判断的顺序,最终得到融合后的注意力图,结果如图9-图16所示是空间多尺度注意力融合,其中的图9是“蜂鸟”原始帧;图10是时-空滤波后的运动矢量场;图11是次低尺度运动矢量场;图12是低尺度运动矢量场;图13是原始层注意力图;图14是次低尺度注意力图;图15是低尺度层注意力图;图16是融合后注意力图。
步骤4、确定目标在全局场景中的运动位置
注意力图主要由运动目标的边界或内部局部区域构成,可能还存在场景中干扰因素的区域,通过阈值对注意力明显的区域进行二值化处理,公式如下:
A t , i , j = &GreaterEqual; T MB k , i , j = 1 < T MB k , i , j = 0 , - - - ( 10 )
然后,通过二值图像数学形态学闭运算填补目标内部空洞、连接邻近物体、平滑其边界,采用形态学的闭操作消除目标区域的内部空洞区域,以确定区域的重心位置,并以此为检测目标的位置结果,图17-图18显示了运动目标区域的初步测试结果,其中的图17是二值化的运动注意力图,图18是根据运动注意力二值化图中心确定的目标位置。
本发明的时-空多尺度运动注意力分析的目标检测方法,是一种基于自适应机制的图像快速运动估计方法,能够通过三个方面对运动矢量场进行分析,包括:在连续的两个运动矢量场之间,运动矢量变化程度(MVVD)的分析;矢量场中,局部区域的运动相似程度(LMSD)的分析;运动矢量的变化程度和局部区域运动相似程度之间的关系分析。
由于到目前为止,现有的全局运动场景中的目标检测问题多数采用运动补偿方法或其改进方法,较少涉及其它方法,因此本发明方法从以下几方面与全局运动补偿方法作对比实验:1)在目标足够大的情况下考察对运动目标检测的准确性;2)在图像纹理复杂,光流估算容易出现误差时的目标检测效果;3)在同一场景中多个目标检测的效果。
本发明方法的实施例在Dell Core2.0GHz、1GB RAM的计算机上完成,实验环境为Matlab2010,实验中采用不同的视频场景序列进行测试,测试序列为高分辨率视频序列(1920×1080),以上测试序列均为全局运动视频场景。
图19-图21是本发明方法的一组检测效果示意图,其中的图19是测试图像的原始帧;图20是本发明方法初步融合后的对应组注意力图;图21为最后得到的对应组运动目标区域。
图22-图24是本发明方法的另一组检测效果示意图,其中的图22是测试图像的原始帧;图23是本发明方法初步融合后的对应组注意力图;图24为最后得到的对应组运动目标区域。
从实施例各组图像经过处理最后得到的效果图中可以看出,本发明方法对全局场景中的运动目标的检测具有较高的准确性和实时性。

Claims (2)

1.一种时-空多尺度运动注意力分析的目标检测方法,其特征在于:该方法按照以下步骤具体实施:
步骤1、创建时-空运动融合注意力模型
在时间维度上,邻域内定义运动矢量差值描述时间注意力因子,定义
Figure FDA00002653235900011
的时间注意力因子是: A k , i , j T = | &Delta;V | = | V &RightArrow; k , i , j - V &RightArrow; k - 1 , i , j | , - - - ( 2 )
式中的
Figure FDA00002653235900014
分别代表在k帧和k-1帧中坐标位置为(i,j)的运动矢量,
假定MBk,i,j是k帧中坐标为(i,j)的宏块,i和j分别表示宏块的横纵坐标;Λk,i,j表示包含宏块MBk,i,j及其相邻宏块的集合,那么定义
Figure FDA00002653235900015
的空间注意力因子是: A k , i , j S = a &CenterDot; | V &RightArrow; k , i , j - u &RightArrow; k , i , j | + b &CenterDot; PLog 1 P , - - - ( 3 )
式中的a,b是系数,
Figure FDA00002653235900017
分别代表在k帧中坐标位置为(i,j)的运动矢量,·代表系数与矢量的乘积,其中
Figure FDA00002653235900018
P为当前运动场矢量估算的正态高斯概率函数,其表达式为 P = 1 2 &pi; &delta; exp [ - 1 2 ( v &RightArrow; - u ^ &delta; ^ ) 2 ] , 其中的
Figure FDA000026532359000110
Figure FDA000026532359000111
由无偏估计决定, u ^ = 1 N &Sigma; V &OverBar; k , &delta; ^ = 1 N - 1 &Sigma; ( V &RightArrow; k - V &OverBar; k ) ,
本方法定义运动注意力模型为时间和空间注意力因子的线性融合模型,线性组合是: A k , i , j = &alpha; &CenterDot; A k , i , j T + &beta; &CenterDot; A k , i , j S , - - - ( 4 )
其中的α、β为正值的系数,
最终借鉴融合模型进行运动注意力融合,公式如下:
A ~ k , i , j = A k , i , j + 1 2 &delta; &CenterDot; max ( A k , i , j T , A k , i , j S ) &CenterDot; &sigma;
= &alpha; &CenterDot; A k , i , j T + &beta; &CenterDot; A k , i , j S + 1 2 &delta; &CenterDot; max ( A k , i , j T , A k , i , j S ) &CenterDot; | A k , i , j T - A k , i , j S | , - - - ( 5 )
其中δ为正值,公式(5)中的后半部分代表时-空对注意力影响的偏置;
步骤2、对运动矢量场进行时-空滤波
时间尺度滤波定义是:假设运动矢量场时间序列为
Figure FDA00002653235900022
Figure FDA00002653235900023
指t时刻运动矢量场中的运动矢量,那么低通滤波后的运动矢量场
Figure FDA00002653235900024
由以下迭代公式确定: ML i ( v &RightArrow; , t ) = &PartialD; i &CenterDot; ML i ( v &RightArrow; , t - 1 ) + ( 1 - &PartialD; i ) &CenterDot; MVF ( v &RightArrow; , t ) , - - - ( 6 )
公式中,t>0,
Figure FDA00002653235900026
Mv为初始化系数,
滤波系数
Figure FDA00002653235900027
决定了当前运动场在滤波后所占的程度大小,运动场的滤波效果取决于
Figure FDA00002653235900028
系数的大小;
Figure FDA00002653235900029
的取值需要考虑运动场的时间频率和所需的时间尺度,上述公式变形为下式:
ML i ( v &RightArrow; , t ) = ( 1 - &PartialD; i ) &CenterDot; &Sigma; j = 1 t &PartialD; i t - j &CenterDot; MVF ( v &RightArrow; , t ) + &PartialD; i t &CenterDot; M v , - - - ( 7 )
式中,MLi为滤波后的运动矢量场,在时间滤波后,对运动矢量进行空间上的中值滤波处理得到真正反映视频对象运动的运动矢量,
运动矢量中值滤波过程如下:对于每一个非零运动矢量,用相邻的运动矢量中值代替其值,
在空间维度上,采用多分辨率分析理论,将图像帧在空间上进行多分辨率分解,在不同尺度空间中进行运动估计,选用具有紧支集的正交小波基来构造滤波器进行分解,多尺度分解后,在每个级别的低频尺度空间上作运动估计,得到不同尺度下的运动矢量场;
步骤3、进行多尺度运动注意力融合
融合过程考虑了图像像素分布的相关性,相关性程度高的像素宏块进行合并,采用共生矩阵的相关性系数来衡量当前像素块的像素值分布特点,共生矩阵的相关系数是用来衡量共生矩阵中元素在行或列方向上的相似程度,设f为大小m×n的图像,则相关系数是:
Cor = &Sigma; i , j = 0 N g - 1 P i , j [ ( i - u i ) &CenterDot; ( j - u j ) &delta; i 2 &CenterDot; &delta; j 2 ] , - - - ( 8 )
式(8)中, u i = &Sigma; i , j = 0 N g - 1 i &CenterDot; P ( i , j ) ,
u j = &Sigma; i , j = 0 N g - 1 j &CenterDot; P ( i , j ) ,
&delta; i 2 = &Sigma; i , j = 0 N g - 1 P ( i , j ) &CenterDot; ( i - u i ) 2 ,
&delta; j 2 = &Sigma; i , j = 0 N g - 1 P ( i , j ) &CenterDot; ( j - u j ) 2 ,
多尺度注意力融合的具体过程是:判断第n层Cor(PBi,j)与阈值T作比较,若Cor(PBi,j)>T,说明像素的分布相关性大,光流运动估算的出现误差的可能性小,则选择当前宏块对应的注意力值,并按照四叉树形式将下一尺度对应的四个宏块注意力值进行赋值;
若Cor(PBi,j)<T,说明像素的分布相关性小,光流运动估算的出现误差的可能性大,因此该宏块不取当前值,按照从低尺度向高尺度逐层判断的顺序,最终得到融合后的注意力图。
2.根据权利要求1所述的时-空多尺度运动注意力分析的目标检测方法,其特征在于:
所述的步骤3之后,还包括步骤4,即确定目标在场景中的运动位置,具体步骤是:
注意力图主要由运动目标的边界或内部局部区域构成,可能还存在场景中干扰因素的区域,通过阈值对注意力明显的区域进行二值化处理,公式是:
A t , i , j = &GreaterEqual; T MB k , i , j = 1 < T MB k , i , j = 0 , - - - ( 10 )
然后,通过二值图像数学形态学闭运算填补目标内部空洞、连接邻近物体、平滑其边界,采用形态学的闭操作消除目标区域的内部空洞区域,以确定区域的重心位置,并以此为检测目标的位置结果。
CN201210571787.8A 2012-12-26 2012-12-26 基于时-空多尺度运动注意力分析的目标检测方法 Expired - Fee Related CN103065326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210571787.8A CN103065326B (zh) 2012-12-26 2012-12-26 基于时-空多尺度运动注意力分析的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210571787.8A CN103065326B (zh) 2012-12-26 2012-12-26 基于时-空多尺度运动注意力分析的目标检测方法

Publications (2)

Publication Number Publication Date
CN103065326A true CN103065326A (zh) 2013-04-24
CN103065326B CN103065326B (zh) 2015-06-24

Family

ID=48107943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210571787.8A Expired - Fee Related CN103065326B (zh) 2012-12-26 2012-12-26 基于时-空多尺度运动注意力分析的目标检测方法

Country Status (1)

Country Link
CN (1) CN103065326B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514608A (zh) * 2013-06-24 2014-01-15 西安理工大学 基于运动注意力融合模型的运动目标检测与提取方法
CN104869421A (zh) * 2015-06-04 2015-08-26 北京牡丹电子集团有限责任公司数字电视技术中心 基于全局运动估计的视频显著性检测方法
CN105243673A (zh) * 2015-08-05 2016-01-13 深圳大学 一种基于块匹配的运动估计方法、运动估计系统及其应用
CN105427292A (zh) * 2015-11-11 2016-03-23 南京邮电大学 一种基于视频的显著目标检测方法
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
CN106558066A (zh) * 2016-11-29 2017-04-05 南昌航空大学 一种基于空时域联合滤波的运动目标检测方法
CN107066973A (zh) * 2017-04-17 2017-08-18 杭州电子科技大学 一种利用时空注意力模型的视频内容描述方法
CN107507225A (zh) * 2017-09-05 2017-12-22 明见(厦门)技术有限公司 运动目标检测方法、装置、介质及计算设备
CN108062505A (zh) * 2016-11-09 2018-05-22 微软技术许可有限责任公司 基于神经网络的动作检测
CN108345887A (zh) * 2018-01-29 2018-07-31 清华大学深圳研究生院 图像语义分割模型的训练方法及图像语义分割方法
CN108810317A (zh) * 2017-05-05 2018-11-13 展讯通信(上海)有限公司 真实运动估计方法及装置、计算机可读存储介质、终端
CN109685831A (zh) * 2018-12-20 2019-04-26 山东大学 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统
CN110110812A (zh) * 2019-05-20 2019-08-09 江西理工大学 一种用于视频动作识别的串流深度网络模型
CN110796071A (zh) * 2019-10-28 2020-02-14 广州博衍智能科技有限公司 行为检测方法、系统、机器可读介质及设备
CN111626306A (zh) * 2019-03-25 2020-09-04 北京联合大学 一种显著图融合方法及系统
CN111798460A (zh) * 2020-06-17 2020-10-20 南京信息工程大学 一种卫星图像分割方法
CN112036300A (zh) * 2020-08-31 2020-12-04 合肥工业大学 一种基于多尺度时空传播层的运动目标检测方法
WO2021168755A1 (zh) * 2020-02-27 2021-09-02 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN114596531A (zh) * 2022-03-31 2022-06-07 深圳市海清视讯科技有限公司 高空抛物检测方法、装置、设备及存储介质
CN116630828A (zh) * 2023-05-30 2023-08-22 中国公路工程咨询集团有限公司 基于地形环境适配的无人机遥感信息采集系统及方法
CN117951585A (zh) * 2024-03-27 2024-04-30 国网山东省电力公司曲阜市供电公司 一种电力设备运行状态实时检测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754266B2 (en) * 1998-10-09 2004-06-22 Microsoft Corporation Method and apparatus for use in transmitting video information over a communication network
CN101271525A (zh) * 2008-04-10 2008-09-24 复旦大学 一种快速的图像序列特征显著图获取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754266B2 (en) * 1998-10-09 2004-06-22 Microsoft Corporation Method and apparatus for use in transmitting video information over a communication network
CN101271525A (zh) * 2008-04-10 2008-09-24 复旦大学 一种快速的图像序列特征显著图获取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BIN QI,MOHAMMED GHAZAL,AISHY AMER: "Robust Global Motion Estimation Oriented to Video Object Segmentation", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, vol. 17, no. 6, 30 June 2008 (2008-06-30) *
HAIFENG XU,AKMAL A.YOUNIS,MANSUR R.KABUKA: "Automatic Moving Object Extraction for content-based application", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 14, no. 6, 1 June 2004 (2004-06-01) *
刘龙,康小龙: "基于运动矢量预测性程度的快速运动估计算法", 《计算机工程》, vol. 38, no. 22, 20 November 2012 (2012-11-20) *

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514608B (zh) * 2013-06-24 2016-12-28 西安理工大学 基于运动注意力融合模型的运动目标检测与提取方法
CN103514608A (zh) * 2013-06-24 2014-01-15 西安理工大学 基于运动注意力融合模型的运动目标检测与提取方法
CN104869421B (zh) * 2015-06-04 2017-11-24 北京牡丹电子集团有限责任公司数字电视技术中心 基于全局运动估计的视频显著性检测方法
CN104869421A (zh) * 2015-06-04 2015-08-26 北京牡丹电子集团有限责任公司数字电视技术中心 基于全局运动估计的视频显著性检测方法
CN105243673A (zh) * 2015-08-05 2016-01-13 深圳大学 一种基于块匹配的运动估计方法、运动估计系统及其应用
CN105243673B (zh) * 2015-08-05 2018-11-02 深圳大学 一种基于块匹配的运动估计方法、运动估计系统及其应用
CN105427292A (zh) * 2015-11-11 2016-03-23 南京邮电大学 一种基于视频的显著目标检测方法
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
CN108062505A (zh) * 2016-11-09 2018-05-22 微软技术许可有限责任公司 基于神经网络的动作检测
CN108062505B (zh) * 2016-11-09 2022-03-18 微软技术许可有限责任公司 用于基于神经网络的动作检测的方法和设备
CN106558066A (zh) * 2016-11-29 2017-04-05 南昌航空大学 一种基于空时域联合滤波的运动目标检测方法
CN107066973A (zh) * 2017-04-17 2017-08-18 杭州电子科技大学 一种利用时空注意力模型的视频内容描述方法
CN107066973B (zh) * 2017-04-17 2020-07-21 杭州电子科技大学 一种利用时空注意力模型的视频内容描述方法
CN108810317A (zh) * 2017-05-05 2018-11-13 展讯通信(上海)有限公司 真实运动估计方法及装置、计算机可读存储介质、终端
CN108810317B (zh) * 2017-05-05 2021-03-09 展讯通信(上海)有限公司 真实运动估计方法及装置、计算机可读存储介质、终端
CN107507225A (zh) * 2017-09-05 2017-12-22 明见(厦门)技术有限公司 运动目标检测方法、装置、介质及计算设备
CN107507225B (zh) * 2017-09-05 2020-10-27 明见(厦门)技术有限公司 运动目标检测方法、装置、介质及计算设备
CN108345887A (zh) * 2018-01-29 2018-07-31 清华大学深圳研究生院 图像语义分割模型的训练方法及图像语义分割方法
CN108345887B (zh) * 2018-01-29 2020-10-02 清华大学深圳研究生院 图像语义分割模型的训练方法及图像语义分割方法
CN109685831B (zh) * 2018-12-20 2020-08-25 山东大学 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统
CN109685831A (zh) * 2018-12-20 2019-04-26 山东大学 基于残差分层注意力和相关性滤波器的目标跟踪方法及系统
CN111626306A (zh) * 2019-03-25 2020-09-04 北京联合大学 一种显著图融合方法及系统
CN111626306B (zh) * 2019-03-25 2023-10-13 北京联合大学 一种显著图融合方法及系统
CN110110812A (zh) * 2019-05-20 2019-08-09 江西理工大学 一种用于视频动作识别的串流深度网络模型
CN110110812B (zh) * 2019-05-20 2022-08-19 江西理工大学 一种用于视频动作识别的串流深度网络模型构建方法
CN110796071B (zh) * 2019-10-28 2021-02-19 广州云从博衍智能科技有限公司 行为检测方法、系统、机器可读介质及设备
CN110796071A (zh) * 2019-10-28 2020-02-14 广州博衍智能科技有限公司 行为检测方法、系统、机器可读介质及设备
WO2021168755A1 (zh) * 2020-02-27 2021-09-02 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN111798460B (zh) * 2020-06-17 2023-08-01 南京信息工程大学 一种卫星图像分割方法
CN111798460A (zh) * 2020-06-17 2020-10-20 南京信息工程大学 一种卫星图像分割方法
CN112036300B (zh) * 2020-08-31 2022-08-05 合肥工业大学 一种基于多尺度时空传播层的运动目标检测方法
CN112036300A (zh) * 2020-08-31 2020-12-04 合肥工业大学 一种基于多尺度时空传播层的运动目标检测方法
CN114596531A (zh) * 2022-03-31 2022-06-07 深圳市海清视讯科技有限公司 高空抛物检测方法、装置、设备及存储介质
CN114596531B (zh) * 2022-03-31 2022-08-05 深圳市海清视讯科技有限公司 高空抛物检测方法、装置、设备及存储介质
CN116630828A (zh) * 2023-05-30 2023-08-22 中国公路工程咨询集团有限公司 基于地形环境适配的无人机遥感信息采集系统及方法
CN116630828B (zh) * 2023-05-30 2023-11-24 中国公路工程咨询集团有限公司 基于地形环境适配的无人机遥感信息采集系统及方法
CN117951585A (zh) * 2024-03-27 2024-04-30 国网山东省电力公司曲阜市供电公司 一种电力设备运行状态实时检测方法及系统

Also Published As

Publication number Publication date
CN103065326B (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
CN103065326B (zh) 基于时-空多尺度运动注意力分析的目标检测方法
Qin et al. U2-Net: Going deeper with nested U-structure for salient object detection
CN101976435B (zh) 基于对偶约束的联合学习超分辨方法
CN108416266A (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN107451984A (zh) 一种基于混合多尺度分析的红外与可见光图像融合算法
CN103514608B (zh) 基于运动注意力融合模型的运动目标检测与提取方法
CN108389226A (zh) 一种基于卷积神经网络和双目视差的无监督深度预测方法
CN103345763B (zh) 一种基于多尺度可变块的运动注意力计算方法
CN104268847A (zh) 一种基于交互非局部均值滤波的红外与可见光图像融合方法
CN104091320B (zh) 基于数据驱动局部特征转换的噪声人脸超分辨率重建方法
Chen et al. THFuse: An infrared and visible image fusion network using transformer and hybrid feature extractor
CN103714556A (zh) 一种基于金字塔表观模型的运动目标跟踪方法
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
Ren et al. An infrared and visible image fusion method based on improved DenseNet and mRMR-ZCA
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
Yang et al. Depth map super-resolution using stereo-vision-assisted model
Xiang et al. Deep optical flow supervised learning with prior assumptions
CN105809650A (zh) 一种基于双向迭代优化的图像融合方法
Liu et al. Infrared and visible image fusion via salient object extraction and low-light region enhancement
An et al. Patch loss: A generic multi-scale perceptual loss for single image super-resolution
Liu et al. Multi-scale residual pyramid attention network for monocular depth estimation
CN103632373B (zh) 一种三帧差分高阶统计量结合otsu算法的絮体检测方法
Zengzhen Image quality assessment in multiband DCT domain based on SSIM
CN103065310B (zh) 基于三维光谱角统计的高光谱图像边缘信息提取方法
Pang et al. Infrared and visible image fusion based on double fluid pyramids and multi-scale gradient residual block

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150624

Termination date: 20201226