CN109711417B - 一种基于低水平显著性融合和测地线的视频显著性检测方法 - Google Patents
一种基于低水平显著性融合和测地线的视频显著性检测方法 Download PDFInfo
- Publication number
- CN109711417B CN109711417B CN201811488005.8A CN201811488005A CN109711417B CN 109711417 B CN109711417 B CN 109711417B CN 201811488005 A CN201811488005 A CN 201811488005A CN 109711417 B CN109711417 B CN 109711417B
- Authority
- CN
- China
- Prior art keywords
- saliency
- color
- frame
- map
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于低水平显著性融合和测地线的视频显著性检测方法,包括步骤:S1通过显著性估计分别求得空间边缘显著图,空间颜色显著图和运动边界图;S2平滑处理,并集成三个特征显著图得到低水平的时空显著图;S3对每一帧构造无向加权图,然后根据到图像边界的最短测地线距离,计算前景概率;S4对每对相邻视频帧,构造无向加权图,将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图的基础上,计算得到最后的显著图。本发明的空间颜色特征,增强或锐化突出对象的微小细节来表示高显著度。本发明的低层次显著性融合策略,保证互补地使用平滑的颜色显著性、空间边缘和时间运动边界线索产生高精度低水平显著性。
Description
技术领域
本发明属于视频处理技术领域,特别涉及低水平显著性融合方法和测地线方法以及两种方法的结合。
背景技术
目前,国内外诸多著名学者都致力于显著性检测方法的研究,显著性检测方法主要有以下四种:图像显著性检测,协同显著性检测和视频显著性检测。
基于图像显著性检测经过几十年的研究已经有了很大的研究进展。主要分为两类:一类是自顶向下的检测方法,这类方法需要有训练过程和特定的先验知识;另一类方法是自底向上的检测方法,该类方法主要利用底层线索(边缘,形状,方向,颜色,深度)构建图像显著性检测模型,L.Itti和C.Koch等人提出以一种将底层特征融合的视觉显著性检测模型,首次通过定量计算对视觉显著性进行研究。近些年来,学者更是利用深度学习在人类感知系统的作用机理,将深度学习与传统的图像显著性检测方法结合进行更深一步的研究。但是图像显著性检测只对静止的图像产生好的效果,当存在动态背景或运动的目标时,忽视了运动因素,不能产生理想的显著图。协同显著性检测目的是检测在多张图像中重复出现的同一或近似的目标对象,但是该类方法受到目标类别,目标内部特性和目标位置等因素的制约,所以在研究这类方法时,要充分考虑协同显著性目标是否具备这两个条件:1)在单张图片中协同显著性目标应该是显著的;2)在同组图像之间协同显著性目标应该具有较高的相似性。相对于静止图像,视频显著目标检测模型需要考虑更多的信息量,不仅要包含目标空间域的边缘,形状,方向,颜色等底层特征,还要考虑时域内目标的运动信息,因此其算法要在静态图像显著性检测的基础上进行扩展,并且运动线索在整个显著性检测中占据重要位置,L.Itti等人在原始图像显著性检测Itti的基础上,增加了时间轴上的运动信息,其中运动特征是将相邻两帧图像通过高斯金字塔进行多尺度分解,通过“中心-环绕”算子计算差异得到的。
虽然视频显著性检测方法众多,但是却各有弊端,即使基于边缘检测的方法在视频显著性检测领域上已经得到了较好的结果,由于仅仅检测高对比度边缘导致难以均匀地突出整个对象,而提出的空间颜色显著性将色彩自然特征中的颜色边缘连通性、颜色稀有性和颜色紧凑性有效的综合在一起,完成对基于边缘检测方法的补充,另外这些方法所采用的融合过程在时间上是局部的(以逐帧的方式),不能实现鲁棒的低显著性,并且当运动线索与颜色线索起到相反的作用时,也不能巧妙的对它们进行处理。因此我们提出的基于低水平显著性融合和测地线的视频显著性检测方法,在视频显著性检测领域具有广泛的应用前景。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种有效提取对象底层特征、并很好的将这些底层特征进行融合的一种基于低水平显著性融合和测地线的视频显著性检测方法。
本发明采用的技术方案如下:一种基于低水平显著性融合和测地线的视频显著性检测方法,包括以下步骤:
S1、首先,输入原始视频帧,并求取原始视频帧的超像素图像,根据每一个超像素图像分别求取空间边缘图ESk,运动边界图MSk,空间颜色显著图CSk。
S2、其次,对得到的空间颜色显著图CSk进行平滑处理,然后集成平滑之后的颜色显著图CSk,运动边界图MSk和空间边缘图ESk得到低水平的时空显著图Hk。
所述步骤S2中平滑处理的过程如下:
式中,ct,i表示第t个视频帧中第i个超像素的平均RGB颜色值,表示满足||pt,i,pk,j||≤θ的空间局部邻域,σ控制平滑强度。ck,j表示第k个视频帧中第j个超像素的平均RGB颜色值,表示第k帧中第j个超像素的颜色显著性,表示第t帧中第i个超像素平滑之后的颜色显著性,pt,i表示第t帧中第i个超像素的中心位置,pk,j分别表示第k帧中第j个超像素的中心位置。
本发明的优点及有益效果如下:
本发明提出了一种新的无监督视频显著性检测方法。使用一组更完整的显著性线索,利用空间边缘来构造外观信息,时间运动边界来构造运动信息。特别地,为了充分考虑颜色的固有特性,集成从超像素图像中提取的颜色边缘连通性、颜色稀疏性和颜色紧凑性得到空间颜色显著信息,以补偿仅检测高对比度边缘造成的底层特征缺乏。其次采用的平滑策略进一步提高了检测精度。随后,采用一种新的基于策略的低水平显著性融合方法,保证互补地利用平滑的颜色显著性、空间边缘和运动边界线索来产生高精度的低水平时空显著图。
附图说明
图1是本发明提供优选实施例方法的流程图;
图2为集成的空间颜色显著图示例;
图3为平滑的颜色显著图示例;
图4为集成的低水平时空显著图;
图5为SegTrack v2中的实验原图和各方法的实验结果图示例;
图6为ViSal中的实验原图和各方法的实验结果图示例;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明的方法流程如图1所示。
本发明涉及了集成的空间颜色显著图示例如图2、平滑的颜色显著图示例如图3、集成的低水平时空显著图示例如图4。
具体步骤:
步骤S1:输入一组视频帧,采用SLIC算法将视频帧分解为超像素图像,根据每一个超像素图像求取空间边缘图ESk,采用大位移运动估计算法获得后续帧对之间的光流νk,随后根据计算梯度值,其中νk表示帧对间光流,表示梯度值,并最终得到超像素光流梯度图MSk。计算空间颜色显著图时要分别计算颜色边缘连通性Bdc(i)、颜色稀有性Comp(i)和颜色紧凑性
式(1)中,len(i)表示图像中近似目标区域边缘上的像素数目,area(i)表示近似目标区域面积。
式(3)中,N表示图像中的超像素数目,式(4)中表示距离加权系数,表示两个超像素之间的距离,σspa设为0.25,式(5)中表示两个超像素之间的距离,表示超像素中所有像素在Lab颜色空间的平均值,表示超像素中所有像素在Lab颜色空间的平均值。最后我们通过下面的公式来集成Bdc(i),Comp(i)和得到空间颜色显著图CSk:
步骤S2:得到空间颜色显著图之后,我们对它进行平滑,进一步的提高检测精度,平滑过程如下:
式(7)中,ct,i表示第t个视频帧中第i个超像素的平均RGB颜色值,表示满足||pt,i,pk,j||≤θ的空间局部邻域,ck,j表示第k个视频帧中第j个超像素的平均RGB颜色值,表示第k帧中第j个超像素的颜色显著性,表示第t帧中第i个超像素平滑之后的颜色显著性,pt,i表示第t帧中第i个超像素的中心位置,pk,j分别表示第k帧中第j个超像素的中心位置,σ控制平滑强度其中θ的定义为:
式(8)中m和n分别表示当前帧中的帧号和超像素号。式(9)中E(·)表示指示函数,ξ经验性的设置为10来控制过滤强度,第i个超像素的平均中心坐标表示为Ii,同时为了确保在每一帧中显著性的一致性,第q帧的的平滑范围θq可以被动态的更新如下所示:
θq←αθq+(1-α)θq-1 (10)
式(10)中,α表示学习权重,我们将它设为0.2。最后我们按照如下的方式集成空间信息和运动信息,得到融合的低水平时空显著图:
Hk=CSkοMSkοESk (11)
为了评估本算法的性能,本发明采用SegTrackv1,SegTrack v2,and ViSal三个公开视频数据集作为实验数据集,并且与六种图像显著性模型:BSCA,MIPS,SP-MS,MST,LPS,RCRR和五种视频显著性模型:SAG,GF,SGSP,SGAF,and STBP进行实验对比。
本实验选择了S-measure,MAE,NSS,and s-AUC四个评价指标对实验结果进行定性定量评价,图5为SegTrack v2中的实验原图和各方法的结果图。图6为ViSal中的实验原图和各方法的实验结果图,表1为采用S-measure,MAE,NSS,and s-AUC评价指标定量分析实验结果。实验结果对比表如表1所示,在SegTrack v1中,我们的方法在NSS和s-AUC指标上表现出最好的结果,并且在MAE和S-measure这两项指标上略低于SAG方法。在SegTrack v2中,我们的方法在NSS、s-AUC和S-measure指标上展示了最好的结果,但是在MAE指标上略低于STBP方法。在Visal数据集中,我们的方法在NSS、MAE和S-measure这三个评价指标中取得了最好的结果,但是在s-AUC评价指标中略低于MIPS方法。
表1实验结果对比表
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (8)
1.一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于,包括以下步骤:
S1、首先,输入原始视频帧,并求取原始视频帧的超像素图像,根据每一个超像素图像分别求取空间边缘图ESk,运动边界图MSk,空间颜色显著图CSk;
S2、其次,对得到的空间颜色显著图CSk进行平滑处理,然后集成平滑之后的颜色显著图CSk,运动边界图MSk和空间边缘图ESk得到低水平的时空显著图Hk;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811488005.8A CN109711417B (zh) | 2018-12-06 | 2018-12-06 | 一种基于低水平显著性融合和测地线的视频显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811488005.8A CN109711417B (zh) | 2018-12-06 | 2018-12-06 | 一种基于低水平显著性融合和测地线的视频显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109711417A CN109711417A (zh) | 2019-05-03 |
CN109711417B true CN109711417B (zh) | 2022-12-27 |
Family
ID=66254016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811488005.8A Active CN109711417B (zh) | 2018-12-06 | 2018-12-06 | 一种基于低水平显著性融合和测地线的视频显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711417B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128344B (zh) * | 2021-03-19 | 2024-02-02 | 杭州电子科技大学 | 一种多信息融合的立体视频显著性检测方法 |
CN115953419A (zh) * | 2023-03-09 | 2023-04-11 | 天津艾思科尔科技有限公司 | 一种基于超像素分析的动态视频检测预处理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488812A (zh) * | 2015-11-24 | 2016-04-13 | 江南大学 | 一种融合运动特征的时空显著性检测方法 |
CN105556568A (zh) * | 2013-07-31 | 2016-05-04 | 微软技术许可有限责任公司 | 使用背景先验的测地线显著性 |
CN106373131A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于边缘的图像显著性区域检测方法 |
CN106611427A (zh) * | 2015-10-21 | 2017-05-03 | 中国人民解放军理工大学 | 基于候选区域融合的视频显著性检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296740B (zh) * | 2016-08-11 | 2019-05-14 | 电子科技大学 | 一种基于低秩稀疏表达的目标精细轮廓跟踪方法 |
-
2018
- 2018-12-06 CN CN201811488005.8A patent/CN109711417B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105556568A (zh) * | 2013-07-31 | 2016-05-04 | 微软技术许可有限责任公司 | 使用背景先验的测地线显著性 |
CN106611427A (zh) * | 2015-10-21 | 2017-05-03 | 中国人民解放军理工大学 | 基于候选区域融合的视频显著性检测方法 |
CN105488812A (zh) * | 2015-11-24 | 2016-04-13 | 江南大学 | 一种融合运动特征的时空显著性检测方法 |
CN106373131A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于边缘的图像显著性区域检测方法 |
Non-Patent Citations (4)
Title |
---|
"一种结合显著性检测与词袋模型的目标识别方法";李伟生,陈曦;《计算机工程与科学》;20170930;第39卷(第9期);第1706-1713页 * |
"基于自适应背景模板与空间先验的显著性物体检测方法";林华锋,李静,刘国栋等;《自动化学报》;20171031;第43卷(第10期);第1736-1748页 * |
"基于颜色和运动空间分布的时空显著性区域检测算法";郑云飞,张雄伟,曹铁勇等;《计算机应用研究》;20170731;第34卷(第4期);第2189-2195页 * |
"多分辨率最小障碍与梯度融合显著性检测算法";邵元,夏士雄,姚睿等;《计算机工程与应用》;20180215;第17-24页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109711417A (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423698B (zh) | 一种基于并联卷积神经网络的手势估计方法 | |
CN109671023B (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN110503680B (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
WO2018000752A1 (zh) | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 | |
CN108090919A (zh) | 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法 | |
CN110378844A (zh) | 基于循环多尺度生成对抗网络的图像盲去运动模糊方法 | |
CN107066916B (zh) | 基于反卷积神经网络的场景语义分割方法 | |
CN109410247A (zh) | 一种多模板和自适应特征选择的视频跟踪算法 | |
CN102034247B (zh) | 一种基于背景建模对双目视觉图像的运动捕捉方法 | |
CN108932536A (zh) | 基于深度神经网络的人脸姿态重建方法 | |
CN108280804B (zh) | 一种多帧图像超分辨率重建方法 | |
CN112926552B (zh) | 基于深度神经网络的遥感影像车辆目标识别模型及方法 | |
CN109711417B (zh) | 一种基于低水平显著性融合和测地线的视频显著性检测方法 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
Xu et al. | AutoSegNet: An automated neural network for image segmentation | |
CN113763417A (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN115713469A (zh) | 基于通道注意力和形变生成对抗网络的水下图像增强方法 | |
CN114830168A (zh) | 图像重建方法、电子设备和计算机可读存储介质 | |
CN116152926A (zh) | 基于视觉和骨架信息融合的手语识别方法、装置及系统 | |
CN111539985A (zh) | 一种融合多特征的自适应运动目标跟踪方法 | |
CN114708615A (zh) | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 | |
WO2020001046A1 (zh) | 一种基于自适应层次化运动建模的视频预测方法 | |
CN113421210A (zh) | 一种基于双目立体视觉的表面点云重建方法 | |
CN117689876A (zh) | 一种鸟类视觉启发的复杂背景下运动目标显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |