CN105913456A - 基于区域分割的视频显著性检测方法 - Google Patents
基于区域分割的视频显著性检测方法 Download PDFInfo
- Publication number
- CN105913456A CN105913456A CN201610224972.8A CN201610224972A CN105913456A CN 105913456 A CN105913456 A CN 105913456A CN 201610224972 A CN201610224972 A CN 201610224972A CN 105913456 A CN105913456 A CN 105913456A
- Authority
- CN
- China
- Prior art keywords
- value
- feature
- characteristic
- video
- superpixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000011218 segmentation Effects 0.000 title claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000003068 static effect Effects 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 230000003287 optical effect Effects 0.000 claims abstract description 13
- 238000003064 k means clustering Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012706 support-vector machine Methods 0.000 claims description 2
- 239000004576 sand Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 7
- 238000005286 illumination Methods 0.000 abstract description 2
- 238000012417 linear regression Methods 0.000 abstract 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000001603 reducing effect Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 9
- 230000001568 sexual effect Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种区域分割的视频显著性检测方法,主要解决现有视频显著性检测方法检测准确率低的问题,其步骤是:1.对视频帧进行线性迭代聚类,得到超像素块,提取超像素块静态特征;2.利用变分光流法,得到超像素块的动态特征;3.将静态特征和动态特征进行融合得到特征矩阵,再对特征矩阵进行K‑means聚类;4.对每一类分别进行线性回归模型训练,得到回归模型,5.用回归模型重建测试集样本与显著性程度的映射关系得到测试集超像素块的显著值,进而得到测试序列的显著图。本发明相较于传统的视频显著性算法,增强了特征空间和时间表征能力,降低了光照对检测效果的影响,可用于视频目标跟踪、视频分割的前期预处理。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及一种视频显著性检测方法,可用于目标跟踪、物体识别和视频分割。
背景技术
计算机在处理复杂场景问题时,背景的复杂性使得现有的一些方法不能对场景进行更好的处理。研究发现,人类视觉系统能够轻松地理解各种复杂场景,因此在处理复杂场景的相关问题时可以借鉴人类系统的工作原理。学者对人类视觉注意选择机制进行深入地研究和推理后得到视觉显著性理论,该理论认为人类视觉系统只详细处理图像的某些局部,而对图像的其余部分几乎视而不见。基于此理论,计算机视觉领域的相关学者提出了对图像或者视频中人类感兴趣区域的检测,目前该领域已成为研究的热门。其中显著性算法在检测效果和运算速度上都有突出的表现,因而受到研究者们的广泛关注。视频显著区域提取是视频监控、人类行为认知和视频检索等视频分析过程中的重要的步骤。由于视频数据的复杂性和多样性,视频帧之间的强相关性和动态时变性等特点,使得视频显著性区域的检测难度增大。
目前已有的视频显著区域提取方法主要有以下几种模型:
Cheng提出的视觉注意模型,该模型不仅考虑了亮度和颜色特征,而且还添加了运动信息,为视频序列显著区域提取算法研究打下了基础;
Guo等人提出的PQFT空时显著性模型,简单且快速,其应用傅里叶变换将图像的亮度、颜色、运动特征融合,但易受到背景纹理的干扰。为了解决这个问题,Cui等人提出了一种基于SR的空时显著区域快速提取算法,以X-T和Y-T两个方向的时间切片来表示动态信息,从而将前景目标从复杂背景中提取出来;
Seo和Milanfar提出使用自相似性在空时区域进行显著性检测,它是一个无参的自底向上的模型。该模型将时间域与空间域融合,提高了检测准确率;
Rahtu等人提出的基于条件随机场CRF模型的显著物体分割算法,采用了运动优先的方法来融合动态和静态特征,符合人们视觉注意的感知偏向;
Rudoy等人提出一种视线转移动力学模型,利用分类器学习从一个区域跳转到另一个区域的概率,把概率值作为视频的显著值,提高了检测速率。
上述视频显著区域提取方法都是在图像域的显著模型上添加运动特征,其时域结构过于简单,序列之间关系微弱,虽然可以提取得到视频显著区域,但准确率和效率都比较低。因此如何提取更加有效的视频动态特征,并将静态特征与动态特征有效融合是目前视频显著性提取方法的重要研究内容。
发明内容
本发明的目的在于针对上述方法的不足,提出一种基于区域分割的视频显著性检测方法,以有效地提高检测准确率,提取更加有效的视频动态特征。
实现本发明目的的技术方案是:给定一个视频序列,先进行SLIC超像素分割,再以超像素块为单位,提取颜色、纹理以及运动信息作为特征向量;取一部分序列所有块的特征向量作为训练样本,并对其进行归一化和聚类;利用聚类后各个类的特征矩阵和类标向量训练对应的回归模型;选取匹配的回归模型重建测试样本与显著程度的映射关系,从而得到测试样本中每一个超像素块的显著值,进而获取测试序列的显著图。其实现步骤包括如下:
(1)输入待检测的视频帧,提取每一帧图像的静态特征和动态特征;
(1a)对输入的图像进行线性迭代聚类,得到超像素块,求取每一个超像素块中所包含像素点的颜色特征值、直方图特征值和纹理特征值,并用这三个特征的均值组成特征向量作为该超像素块的静态特征;
(1b)将相邻两帧视频图像的纹理特征值用光流法进行差分处理,得到前一帧图像的光流场特征值;
(1c)将每一帧图像的光流场特征值分解为水平方向vx和垂直方向vy两个特征;
(1d)计算每一个超像素块所包含像素点水平方向vx和垂直方向vy的特征均值,并用这两个特征的均值组成特征向量作为该超像素块的动态特征;
(2)将步骤(1)中得到的超像素块静态特征和动态特征进行融合,得到每一个超像素块的特征向量,对视频序列所有超像素块的特征向量进行归一化,得到特征向量集F,将视频序列前15帧图像所有超像素块特征向量F1作为训练样本进行K-means聚类,得到k=5个训练样本以及对应的聚类中心;
(3)把聚类得到的5个训练样本分别输入到支持向量机中,训练得到5个SVR回归模型;
(4)取特征向量集F中剩余部分向量F2作为测试样本,分别计算F2中每个向量与k个聚类中心的欧式距离,寻找最邻近的类,并用与该最邻近的类相对应的SVR回归模型测试得到样本F2中每一个超像素块对应的显著值,构成显著值向量;
(5)将得到的显著值向量依次映射到测试样本中的所有超像素块上,得到测试序列显著图。
本发明与现有技术相比具有如下优点:
1)本发明相对于传统的视频显著性算法,在超像素级上进行特征提取与融合,增强了特征空间和时间上的表征能力,能够得到既完整又相对准确的目标显著区域;
2)本发明用局部方向模式特征代替原始帧中的亮度连续与高阶连续,提取相邻两帧图像的纹理特征,作为变分光流模型的输入,求取每一个视频帧的动态光流场特征,降低了光照对检测效果的影响,在视频数据集上获得了较好的实验效果。
本发明的技术过程和效果可结合以下附图详细说明。
附图说明
图1是本发明的实现示意图;
图2是本发明中基于超像素块的静态特征提取示意图;
图3是本发明中动态光流场特征提取示意图;
图4是本发明与不同视频显著性方法的结果对比图;
图5是本发明与不同算法的P-R曲线;
图6是本发明与不同算法的ROC曲线和对应AUC值的直方图;
具体实施方式
参照图1,本发明基于区域分割的视频显著性检测方法,包括如下步骤:
步骤一,获取视频序列的超像素块。
1.1)对视频分割数据库中的视频进行分帧,得到视频序列;
1.2)对视频序列进行简单的线性迭代聚类SLIC,得到视频序列的超像素块,该简单的线性迭代聚类算法根据像素点之间的颜色相似性与邻近性进行分簇,不仅考虑了像素点之间的空间距离,还考虑了其彩色信息的差异性。
步骤二,提取超像素块的静态特征。
每一个超像素块的静态特征,包括颜色特征值、直方图特征值和纹理特征值。
参照图2,本步骤的具体实现如下:
2.1)提取颜色特征:
2.1.1)利用matlab中的颜色函数先求得输入视频图像中每一个像素点的RGB颜色特征值;再对各个超像素块中的所有像素点颜色特征求平均,得到超像素块的颜色特征值Fci,其中i表示R、G、B三个颜色通道i=1,2,3,Fci={fci(1),…fci(j),…fci(n)}表示第i个颜色通道中所有超像素块的颜色特征值,fci(j)为第i个颜色通道中第j个超像素块的颜色特征值,j表示序列中的超像素块j=1,…n,n是序列中所包含的超像素块的数量;
2.1.2)按下述公式对颜色特征值归一化,得到颜色特征矩阵Norci(j):
其中,p表示Fci,maxp和minp分别是R、G、B三个颜色通道中的最大值和最小值;
2.2)提取直方图特征:
2.2.1)将待求视频图像的颜色空间划分成若干个小的颜色区间,使每个区间成为直方图的一个条状区,并计算落在每个小区间的像素数量得到颜色直方图;再对各个超像素块中的所有像素点直方图特征求平均,得到超像素块的直方图特征值Fhi,其中Fhi={fhi(1),…fhi(j),…fhi(n)}表示第i个特征向量中所有超像素块的直方图特征值,fhi(j)为第i个特征向量中第j个超像素块的直方图特征值;
2.2.2)对直方图特征值归一化,得到直方图特征矩阵Norhi(j):
其中,是第i个通道中所有直方图特征值的和;
2.3)提取纹理特征:
2.3.1)取输入视频图像的局部方向模式特征,再对各个超像素块中的所有像素点局部方向模式特征求平均,得到超像素块的纹理特征值Fli,其中Fli={fli(1),…fli(j),…fli(n)}表示第i个特征向量中所有超像素块的纹理特征值,fli(j)为第i个特征向量中第j个超像素块的纹理特征值;
2.3.2)对纹理特征值归一化,得到纹理特征矩阵Norli(j):
其中q表示Fli,maxq和minq分别是三个颜色通道纹理特征向量的最大值和最小值。
步骤三,提取超像素块的动态特征,获得动态特征矩阵。
参照图3,本步骤的具体实现如下:
3.1)用局部方向模式纹理特征代替原始视频帧中的亮度连续与高阶连续,将相邻两帧视频图像的纹理特征值用光流法进行差分处理,得到前一帧图像的光流场特征值,将每一帧图像的光流场特征值分解为水平方向vx和垂直方向vy两个特征;
3.2)计算每一个超像素块所包含像素点水平方向vx和垂直方向vy的特征均值,并用这两个特征的均值组成特征向量作为该超像素块的动态特征Fmz,其中z表示vx、vy两个方向的特征向量z=1,2,Fmz={fmz(1),…fmz(j),…fmz(n)}表示第i个特征向量中所有超像素块的动态特征值,fmz(j)表示第z个特征向量中第j个超像素块的动态特征值;
3.3)将水平方向vx和垂直方向vy的超像素块动态特征值归一化,得到动态特征矩阵Normz(j):
其中,t表示Fmz,maxt和mint分别是纹理特征向量的最大值和最小值。
步骤四,对超像素块的静态特征和动态特征进行融合。
将超像素块静态和动态特征向量融合后的特征矩阵用F={Norci(j),Norhi(j),Norli(j),Normz(j)}表示,将视频序列前15帧图像所有超像素块特征向量F1作为训练样本进行K-means聚类,其步骤如下:
4.1)将训练样本F1表示为{region1,region2,…regions,…regionn1},其中regions表示F1中第s个超像素块的特征向量,s=1,2…,n1,n1表示样本F1包含的超像素块的个数;
4.2)将聚类中心表示为{μ1,μ2…μr,…μk},其中μr表示第r个类的聚类中心,r=1,2…,k,k表示聚类中心的个数;
4.3)计算regions与k个聚类中心之间的最小欧氏距离C(s):
C(s)=argminr||regions-μr||2,
其中||||2是二范数的表示,||regions-μr||2表示regions与第r个聚类中心μr之间的欧式距离,argminr表示取k个欧式距离中的最小值;
4.4)将regions添加到最小欧式距离C(s)对应的类r中,重新计算该类的聚类中心:
其中,表示所有属于类r的超像素块的集合;
4.5)将步骤4.3)和4.4)进行迭代运算之后得到k个训练样本。
步骤五,多回归模型训练与测试
5.1)用k个训练样本分别训练k个回归模型;
5.2)对于每个测试集超像素块,计算它与各个聚类中心的欧式距离,用最小欧式距离对应类的回归模型得到每一个测试超像素块对应的显著值;
5.3)将得到的显著值映射到每个测试块中得到视频测试序列显著图。
本发明的效果通过以下实验进一步说明:
1.实验条件
实验硬件设备:PHILIPS台式机;
实验软件平台:Windows7操作系统下的MATLAB R2012a;
2.实验内容与结果
第一步,用本发明和已有的六种视频显著性算法Seo、CBSal、Rahtu、PDA、Seg、GBVS分别对视频分割数据库中的视频进行显著性检测,各个方法对比结果如图4所示,其中:
图4(a)表示原始视频序列,图4(b)是用PDA方法性检的显著图,图4(c)是用Seo方法性检的显著图,图4(d)是用Rahtu方法性检显著图,图4(e)是用Seg方法性检的显著图,图4(f)是用GBVS方法性检的显著图,图4(g)是用CBSal方法性检的显著图,图4(h)是用本发明检验的显著图,图4(i)是类标显著图。
第二步,采用查准率-查全率曲线Precision-Recall对图4进行评测,结果如图5所示,其中图5是这些方法的查准率-查全率曲线Precision-Recall。
第三步,为了更好的评估并且区分这些方法,进一步计算ROC曲线以及它与坐标轴所围区域面积AUC,结果如图6所示,其中图6(a)是这些方法的ROC曲线图,图6(b)是ROC曲线与坐标轴所围面积的直方图AUC。
综合上述评测方法,从不同的角度比较各方法之间的优劣。
3.实验结果分析
图4直观地显示出不同方法效果上的差异:
对于第三行包含多目标的视频,本发明不仅可提取出大目标显著区域,而且能把小目标显著区域提取出来,而其余方法只能得到大目标的轮廓;
对于第四行和第五行的单目标视频,Rahtu方法由于没有滤去背景的影响,导致得到的显著区域与背景对比不强烈,使得结果出现偏差;
对于第六行视频目标背景复杂,用Seg和CBSal方法处理时,因受到树枝等细节的干扰,所得结果中目标与背景融为一体,而本发明结果可以明显看出目标的轮廓和细节信息。
图5、图6所示的Precision-Recall曲线、ROC曲线更加直观的显示出本发明的优越性。
综上,本发明所述的视频显著性检测方法在该领域中明显优于现有视频显著性检测方法。
Claims (6)
1.一种基于区域分割的视频显著性检测方法,包括如下步骤:
(1)输入待检测的视频帧,提取每一帧图像的静态特征和动态特征;
(1a)对输入的图像进行线性迭代聚类,得到超像素块,求取每一个超像素块中所包含像素点的颜色特征值、直方图特征值和纹理特征值,并用这三个特征的均值组成特征向量作为该超像素块的静态特征;
(1b)将相邻两帧视频图像的纹理特征值用光流法进行差分处理,得到前一帧图像的光流场特征值;
(1c)将每一帧图像的光流场特征值分解为水平方向vx和垂直方向vy两个特征;
(1d)计算每一个超像素块所包含像素点水平方向vx和垂直方向vy的特征均值,并用这两个特征的均值组成特征向量作为该超像素块的动态特征;
(2)将步骤(1)中得到的超像素块静态特征和动态特征进行融合,得到每一个超像素块的特征向量,对视频序列所有超像素块的特征向量进行归一化,得到特征向量集F,将视频序列前15帧图像所有超像素块特征向量F1作为训练样本进行K-means聚类,得到k=5个训练样本以及对应的聚类中心;
(3)把聚类得到的5个训练样本分别输入到支持向量机中,训练得到5个SVR回归模型;
(4)取特征向量集F中剩余部分向量F2作为测试样本,分别计算F2中每个向量与k个聚类中心的欧式距离,寻找最邻近的类,并用与该最邻近的类相对应的SVR回归模型测试得到样本F2中每一个超像素块对应的显著值,构成显著值向量;
(5)将得到的显著值向量依次映射到测试样本中的所有超像素块上,得到测试序列显著图。
2.根据权利要求1中所述的方法,其中步骤(1a)中求取超像素块的颜色特征值,是利用matlab中的颜色函数先求得输入待求的视频图像中每一个像素点的RGB颜色特征值;再对各个超像素块中的所有像素点颜色特征求平均,得到超像素块的颜色特征值。
3.根据权利要求1中所述的方法,其中步骤(1a)中求取超像素块的直方图特征值,是先将待求视频图像的颜色空间划分成若干个小的颜色区间,使每个区间成为直方图的一个条状区,并计算落在每个小区间的像素数量得到颜色直方图;再对各个超像素块中的所有像素点直方图特征求平均,得到超像素块的直方图特征值。
4.根据权利要求1中所述的方法,其中步骤(1a)中求取超像素块的纹理特征值,是先提取输入视频图像的局部方向模式特征,再对各个超像素块中的所有像素点局部方向模式特征求平均,得到超像素块的纹理特征值。
5.根据权利要求1中所述的方法,其中步骤(2)中对视频序列所有超像素块特征归一化组成特征向量集F,按照如下步骤进行:
(2a)按下述公式对颜色特征归一化,得到颜色特征矩阵Norci(j):
其中i表示R、G、B三个颜色通道i=1,2,3,j表示序列中的超像素块j=1,…n,n是序列中所包含的超像素块的数量,Fci={fci(1),…fci(j),…fci(n)}表示第i个颜色通道中所有超像素块的颜色特征值,fci(j)为第i个颜色通道中第j个超像素块的颜色特征值,将Fci表示为p,maxp和minp分别是R、G、B三个颜色通道中的最大值和最小值;
(2b)对直方图特征值归一化,得到直方图特征矩阵Norhi(j):
其中Fhi={fhi(1),…fhi(j),…fhi(n)}表示第i个特征向量中所有超像素块的直方图特征值,fhi(j)为第i个特征向量中第j个超像素块的直方图特征值,是第i个通道中所有直方图特征值的和。
(2c)对纹理特征值归一化,得到纹理特征矩阵Norli(j);
其中Fli={fli(1),…fli(j),…fli(n)}表示第i个特征向量中所有超像素块的纹理特征值,fli(j)为第i个特征向量中第j个超像素块的纹理特征值,将Fli表示为q,maxq和minq分别是三个颜色通道纹理特征向量的最大值和最小值;
(2d)对步骤(1d)中得出水平方向vx和垂直方向vy的超像素块动态特征值归一化,得到运动特征矩阵Normz(j):
其中其中z表示vx、vy两个方向的特征向量z=1,2,Fmz={fmz(1),…fmz(j),…fmz(n)}表示第i个特征向量中所有超像素块的动态特征值,fmz(j)表示第z个特征向量中第j个超像素块的动态特征值,将Fmz表示成t,maxt和mint分别是纹理特征向量的最大值和最小值;
(2e)将上述步骤(2a)、(2b)、(2c)和(2d)得到的特征矩阵进行融合,即得到特征向量集:F={Norci(j),Norhi(j),Norli(j),Normz(j)}。
6.根据权利要求1所述的方法,其中步骤(2)中将视频序列前15帧图像所有超像素块特征向量F1作为训练样本进行K-means聚类,按照如下步骤进行:
(2a)将训练样本F1表示为{region1,region2,…regions,…regionn1},其中regions表示F1中第s个超像素块的特征向量,s=1,2…,n1,n1表示样本F1包含的超像素块的个数;
(2b)将聚类中心表示为{μ1,μ2…μr,…μk},其中μr表示第r个类的聚类中心,r=1,2…,k,k表示聚类中心的个数;
(2c)计算regions与k个聚类中心之间的最小欧氏距离C(s):
C(s)=argminr||regions-μr||2
其中||regions-μr||2表示regions与第r个聚类中心μr之间的欧式距离,argminr表示取k个欧式距离中的最小值;
(2d)将regions添加到最小欧式距离C(s)对应的类r中,重新计算该类的聚类中心:
将新的聚类中心表示为其中表示第r个类新的聚类中心。表示所有属于类r的超像素块的集合;
(2e)按照步骤(2c)-(2d)进行迭代,得到最优k值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610224972.8A CN105913456B (zh) | 2016-04-12 | 2016-04-12 | 基于区域分割的视频显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610224972.8A CN105913456B (zh) | 2016-04-12 | 2016-04-12 | 基于区域分割的视频显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105913456A true CN105913456A (zh) | 2016-08-31 |
CN105913456B CN105913456B (zh) | 2019-03-26 |
Family
ID=56745987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610224972.8A Active CN105913456B (zh) | 2016-04-12 | 2016-04-12 | 基于区域分割的视频显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105913456B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016675A (zh) * | 2017-03-07 | 2017-08-04 | 南京信息工程大学 | 一种基于非局部时空特征学习的无监督视频分割方法 |
CN107194948A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于集成式预测与时空域传播的视频显著性检测方法 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107622280A (zh) * | 2017-09-14 | 2018-01-23 | 河南科技大学 | 基于场景分类的模块化处方式图像显著性检测方法 |
CN107689052A (zh) * | 2017-07-11 | 2018-02-13 | 西安电子科技大学 | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 |
CN107886507A (zh) * | 2017-11-14 | 2018-04-06 | 长春工业大学 | 一种基于图像背景和空间位置的显著区域检测方法 |
CN107967480A (zh) * | 2016-10-19 | 2018-04-27 | 北京联合大学 | 一种基于标签语义的显著对象提取方法 |
CN108052947A (zh) * | 2017-11-08 | 2018-05-18 | 北京航空航天大学 | 一种基于多尺度时空一致性的动态背景抑制方法 |
CN108156459A (zh) * | 2016-12-02 | 2018-06-12 | 北京中科晶上科技股份有限公司 | 可伸缩视频传输方法及系统 |
CN108932532A (zh) * | 2018-07-11 | 2018-12-04 | 杭州电子科技大学 | 一种针对视频显著性图预测所需的眼动数据数目建议方法 |
CN108985292A (zh) * | 2018-05-23 | 2018-12-11 | 中国地质大学(武汉) | 一种基于多尺度分割的sar图像cfar目标检测方法与系统 |
CN109035293A (zh) * | 2018-05-22 | 2018-12-18 | 安徽大学 | 适用于视频图像中显著人体实例分割的方法 |
CN109191485A (zh) * | 2018-08-29 | 2019-01-11 | 西安交通大学 | 一种基于多层超图模型的多视频目标协同分割方法 |
CN109285182A (zh) * | 2018-09-29 | 2019-01-29 | 北京三快在线科技有限公司 | 模型生成方法、装置、电子设备和计算机可读存储介质 |
CN109615640A (zh) * | 2018-11-19 | 2019-04-12 | 北京陌上花科技有限公司 | 相关滤波目标跟踪方法及装置 |
CN110472514A (zh) * | 2019-07-22 | 2019-11-19 | 电子科技大学 | 一种自适应车辆目标检测算法模型及其构建方法 |
CN110738128A (zh) * | 2019-09-19 | 2020-01-31 | 天津大学 | 一种基于深度学习的重复视频检测方法 |
CN110826445A (zh) * | 2019-10-28 | 2020-02-21 | 衢州学院 | 一种无色彩场景视频中对特定目标区域的侦测方法和装置 |
CN110866460A (zh) * | 2019-10-28 | 2020-03-06 | 衢州学院 | 一种复杂场景视频中特定目标区域的侦测方法和装置 |
CN110910398A (zh) * | 2019-10-28 | 2020-03-24 | 衢州学院 | 一种基于决策层融合的视频复杂场景区域分割方法和装置 |
CN111753574A (zh) * | 2019-03-26 | 2020-10-09 | 顺丰科技有限公司 | 抛扔区域定位方法、装置、设备及存储介质 |
CN114399839A (zh) * | 2022-01-18 | 2022-04-26 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
CN115953419A (zh) * | 2023-03-09 | 2023-04-11 | 天津艾思科尔科技有限公司 | 一种基于超像素分析的动态视频检测预处理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329767A (zh) * | 2008-07-11 | 2008-12-24 | 西安交通大学 | 基于学习的视频中显著物体序列自动检测方法 |
CN103020985A (zh) * | 2012-11-12 | 2013-04-03 | 华中科技大学 | 一种基于场量分析的视频图像显著性检测方法 |
CN103400129A (zh) * | 2013-07-22 | 2013-11-20 | 中国科学院光电技术研究所 | 一种基于频域显著性的目标跟踪方法 |
US20140254922A1 (en) * | 2013-03-11 | 2014-09-11 | Microsoft Corporation | Salient Object Detection in Images via Saliency |
CN104134217A (zh) * | 2014-07-29 | 2014-11-05 | 中国科学院自动化研究所 | 一种基于超体素图割的视频显著物体分割方法 |
CN104424642A (zh) * | 2013-09-09 | 2015-03-18 | 华为软件技术有限公司 | 一种视频显著性区域检测方法及系统 |
-
2016
- 2016-04-12 CN CN201610224972.8A patent/CN105913456B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329767A (zh) * | 2008-07-11 | 2008-12-24 | 西安交通大学 | 基于学习的视频中显著物体序列自动检测方法 |
CN103020985A (zh) * | 2012-11-12 | 2013-04-03 | 华中科技大学 | 一种基于场量分析的视频图像显著性检测方法 |
US20140254922A1 (en) * | 2013-03-11 | 2014-09-11 | Microsoft Corporation | Salient Object Detection in Images via Saliency |
CN103400129A (zh) * | 2013-07-22 | 2013-11-20 | 中国科学院光电技术研究所 | 一种基于频域显著性的目标跟踪方法 |
CN104424642A (zh) * | 2013-09-09 | 2015-03-18 | 华为软件技术有限公司 | 一种视频显著性区域检测方法及系统 |
CN104134217A (zh) * | 2014-07-29 | 2014-11-05 | 中国科学院自动化研究所 | 一种基于超体素图割的视频显著物体分割方法 |
Non-Patent Citations (3)
Title |
---|
ZHI LIU ET AL.: "Superpixel-Based Spatiotemporal Sailency Detection", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
云红全 等: "基于超像素时空显著性的运动目标检测算法", 《红外技术》 * |
柯洪昌 等: "图像序列的显著性目标区域检测方法", 《中国光学》 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967480A (zh) * | 2016-10-19 | 2018-04-27 | 北京联合大学 | 一种基于标签语义的显著对象提取方法 |
CN107967480B (zh) * | 2016-10-19 | 2020-06-30 | 北京联合大学 | 一种基于标签语义的显著对象提取方法 |
CN108156459A (zh) * | 2016-12-02 | 2018-06-12 | 北京中科晶上科技股份有限公司 | 可伸缩视频传输方法及系统 |
CN107016675A (zh) * | 2017-03-07 | 2017-08-04 | 南京信息工程大学 | 一种基于非局部时空特征学习的无监督视频分割方法 |
CN107194948A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于集成式预测与时空域传播的视频显著性检测方法 |
CN107689052B (zh) * | 2017-07-11 | 2021-06-29 | 西安电子科技大学 | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 |
CN107689052A (zh) * | 2017-07-11 | 2018-02-13 | 西安电子科技大学 | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 |
CN107564022B (zh) * | 2017-07-13 | 2019-08-13 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107622280A (zh) * | 2017-09-14 | 2018-01-23 | 河南科技大学 | 基于场景分类的模块化处方式图像显著性检测方法 |
CN107622280B (zh) * | 2017-09-14 | 2020-06-12 | 河南科技大学 | 基于场景分类的模块化处方式图像显著性检测方法 |
CN108052947A (zh) * | 2017-11-08 | 2018-05-18 | 北京航空航天大学 | 一种基于多尺度时空一致性的动态背景抑制方法 |
CN108052947B (zh) * | 2017-11-08 | 2019-12-27 | 北京航空航天大学 | 一种基于多尺度时空一致性的动态背景抑制方法 |
CN107886507B (zh) * | 2017-11-14 | 2018-08-21 | 长春工业大学 | 一种基于图像背景和空间位置的显著区域检测方法 |
CN107886507A (zh) * | 2017-11-14 | 2018-04-06 | 长春工业大学 | 一种基于图像背景和空间位置的显著区域检测方法 |
CN109035293A (zh) * | 2018-05-22 | 2018-12-18 | 安徽大学 | 适用于视频图像中显著人体实例分割的方法 |
CN108985292A (zh) * | 2018-05-23 | 2018-12-11 | 中国地质大学(武汉) | 一种基于多尺度分割的sar图像cfar目标检测方法与系统 |
CN108932532A (zh) * | 2018-07-11 | 2018-12-04 | 杭州电子科技大学 | 一种针对视频显著性图预测所需的眼动数据数目建议方法 |
CN109191485A (zh) * | 2018-08-29 | 2019-01-11 | 西安交通大学 | 一种基于多层超图模型的多视频目标协同分割方法 |
CN109285182A (zh) * | 2018-09-29 | 2019-01-29 | 北京三快在线科技有限公司 | 模型生成方法、装置、电子设备和计算机可读存储介质 |
CN109615640A (zh) * | 2018-11-19 | 2019-04-12 | 北京陌上花科技有限公司 | 相关滤波目标跟踪方法及装置 |
CN111753574A (zh) * | 2019-03-26 | 2020-10-09 | 顺丰科技有限公司 | 抛扔区域定位方法、装置、设备及存储介质 |
CN110472514B (zh) * | 2019-07-22 | 2022-05-31 | 电子科技大学 | 一种自适应车辆目标检测算法模型及其构建方法 |
CN110472514A (zh) * | 2019-07-22 | 2019-11-19 | 电子科技大学 | 一种自适应车辆目标检测算法模型及其构建方法 |
CN110738128A (zh) * | 2019-09-19 | 2020-01-31 | 天津大学 | 一种基于深度学习的重复视频检测方法 |
CN110910398A (zh) * | 2019-10-28 | 2020-03-24 | 衢州学院 | 一种基于决策层融合的视频复杂场景区域分割方法和装置 |
CN110866460A (zh) * | 2019-10-28 | 2020-03-06 | 衢州学院 | 一种复杂场景视频中特定目标区域的侦测方法和装置 |
CN110866460B (zh) * | 2019-10-28 | 2020-11-27 | 衢州学院 | 一种复杂场景视频中特定目标区域的侦测方法和装置 |
CN110826445A (zh) * | 2019-10-28 | 2020-02-21 | 衢州学院 | 一种无色彩场景视频中对特定目标区域的侦测方法和装置 |
CN114399839B (zh) * | 2022-01-18 | 2024-10-15 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
CN114399839A (zh) * | 2022-01-18 | 2022-04-26 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
WO2023137915A1 (zh) * | 2022-01-18 | 2023-07-27 | 平安科技(深圳)有限公司 | 基于特征融合的行为识别方法、装置、设备及存储介质 |
CN115953419A (zh) * | 2023-03-09 | 2023-04-11 | 天津艾思科尔科技有限公司 | 一种基于超像素分析的动态视频检测预处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105913456B (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105913456B (zh) | 基于区域分割的视频显著性检测方法 | |
CN112101150B (zh) | 一种基于朝向约束的多特征融合行人重识别方法 | |
CN107657279B (zh) | 一种基于少量样本的遥感目标检测方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN107358258B (zh) | 基于nsct双cnn通道和选择性注意机制的sar图像目标分类 | |
CN111340824B (zh) | 一种基于数据挖掘的图像特征分割方法 | |
CN109934224B (zh) | 基于马尔科夫随机场和视觉对比机制的小目标检测方法 | |
CN107564022A (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN107203781A (zh) | 一种基于显著性指导的端到端的弱监督目标检测方法 | |
CN104574375A (zh) | 结合彩色和深度信息的图像显著性检测方法 | |
CN107748873A (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN107369158B (zh) | 基于rgb-d图像的室内场景布局估计及目标区域提取方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN106611427A (zh) | 基于候选区域融合的视频显著性检测方法 | |
CN101950364A (zh) | 基于邻域相似度和阈值分割的遥感图像变化检测方法 | |
CN104966286A (zh) | 一种3d视频显著性检测方法 | |
CN104616308A (zh) | 一种基于核模糊聚类的多尺度水平集图像分割方法 | |
CN105279772A (zh) | 一种红外序列图像的可跟踪性判别方法 | |
CN105740915A (zh) | 一种融合感知信息的协同分割方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN111009005A (zh) | 几何信息与光度信息相结合的场景分类点云粗配准方法 | |
CN108388901B (zh) | 基于空间-语义通道的协同显著目标检测方法 | |
CN109271902B (zh) | 复杂背景下基于时域经验模态分解的红外弱小目标检测方法 | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 | |
CN105574880A (zh) | 基于指数矩像素分类的彩色图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |