CN110909594A - 一种基于深度融合的视频显著性检测方法 - Google Patents

一种基于深度融合的视频显著性检测方法 Download PDF

Info

Publication number
CN110909594A
CN110909594A CN201910968451.7A CN201910968451A CN110909594A CN 110909594 A CN110909594 A CN 110909594A CN 201910968451 A CN201910968451 A CN 201910968451A CN 110909594 A CN110909594 A CN 110909594A
Authority
CN
China
Prior art keywords
depth
feature extraction
feature
attention
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910968451.7A
Other languages
English (en)
Inventor
周晓飞
温洪发
张继勇
颜成钢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Hangzhou Electronic Science and Technology University
Original Assignee
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Electronic Science and Technology University filed Critical Hangzhou Electronic Science and Technology University
Priority to CN201910968451.7A priority Critical patent/CN110909594A/zh
Publication of CN110909594A publication Critical patent/CN110909594A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度融合的视频显著性检测方法,本发明方法包括深度特征提取网络、深度特征融合网络和显著性预测网络。模型的输入是当前帧图像和光流图像。首先,深度特征提取网络提取多级深度特征,产生深度空间特征和深度时间特征。然后,采用注意力模块分别强化学习两个分支中每级产生的深度特征,深度特征融合网络分级方式融合多级深度特征。将融合得到的深度特征与边界信息相结合并显著性预测网络进行预测,产生当前帧的最终显著性图。本发明方法提供的网络模型可以充分有效地利用空间信息和时间信息来实现对视频中显著性目标的预测。

Description

一种基于深度融合的视频显著性检测方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于深度融合的视频显著性检测方法。
背景技术
显著性检测是计算机视觉领域的一个研究热点,在相关研究方向中有着广泛的应用,如行人重识别、基于内容的视频压缩、图像质量评估以及目标检测和分割等,它已引起越来越多的关注。根据输入类型的不同,显著性检测模型可以分为两类,分别是图像显著性检测模型和视频显著性检测模型。到目前为止,已有了很多专门致力于图像显著性检测的工作,但由于缺乏大规模的逐像素注释的视频数据集,以及挖掘视频中帧与帧之间关系的难度,导致针对视频显著性检测模型的研究得到了相对较少的关注。
视频显著性检测和图像显著性检测之间存在的差异是显而易见的。具体而言,对于视频显著性检测来说,必须同时考虑视频中的空间信息和时间信息,而在图像显著性检测中则只需要考虑空间信息即可。
几十年来,图像显著性检测已经得到了充分的研究。近年来,伴随着机器学习技术的发展,利用先进的机器学习算法构建了一些显著性模型,例如采用条件随机场来集成多个特征以生成显著性图等。最近,随着深度卷积神经网络的蓬勃应用,已经将其引入到图像显著性检测中。此外,广泛使用的注意力机制也被许多图像显著性检测模型所采用,进一步提高了图像显著性检测的性能。与此同时,视频显著性检测也得到了长足的发展,通常基于中心环绕方案、信息理论、控制理论、机器学习和信息融合等。在信息论的基础上,自信息和增量编码长度用于衡量每个视频帧的显著性。同时,传统的机器学习算法也已经应用于视频显著性检测,例如稀疏表示、支持向量机等。还有一些方法在分别生成空间显著性图和时间显著性图的基础上采用融合方案将这两种图组合成最终显著性图。同样,与图像显著性检测类似,深度卷积神经网络也用于视频显著性检测。值得注意的是,大多数已有模型只是将深度卷积神经网络作为一种特征提取器,因此它们不是端到端的学习框架。
显然,对视频显著性检测的研究工作已经取得了一定的成果,但是在处理诸如快速运动、动态背景、非线性形变和遮挡等复杂视频时,现有模型的性能仍会严重下降,远远达不到理想效果。幸运的是,伴随着深度学习技术的不断发展,视频显著性检测模型的性能也得到了显著提升。遗憾的是,这些模型仍不能充分利用视频中丰富的空间信息和时间信息,导致在处理复杂视频时,这些模型的性能也会在一定程度上降低。同时,一些基于深度融合的工作试图以有效的方式融合来自不同网络层的特征,充分利用诸如时间线索和空间线索等不同的信息,同样引起了许多关注。
发明内容
针对现有技术存在的不足,本发明提供了一种基于深度融合的视频显著性检测方法。
本发明方法包括以下步骤:
步骤(1).深度特征的提取,具体方法如下:
首先构建深度特征提取网络,所述的深度特征提取网络由对称的空间特征提取分支和时间特征提取分支组成;所述的空间特征提取分支和所述的时间特征提取分支基于VGG-16模型构建,所述空间特征提取分支和所述的时间特征提取分支均包括5个卷积块(包含有13个卷积层),卷积核大小设置为3×3,步幅大小为1,以及4个最大池化层,池化大小设置为2×2,步幅大小为2。不同分支在卷积层中具有不同的权重参数。
然后进行深度特征提取网络的输入,所述的空间特征提取分支的输入为当前帧Ft,所述的时间特征提取分支的输入为对应当前帧Ft的光流图像OPt,所述的空间特征提取分支提取深度空间特征{DSFt i,i=1,2,3,4,5},所述的时间特征提取分支提取深度时间特征{DTFt i,i=1,2,3,4,5};
步骤(2).深度特征的融合,具体方法如下:
深度特征融合网络采用了分级融合网络的方式;
2-1.采用注意力模块来对深度特征进行筛选,获得空间特征提取分支和时间特征提取分支中每一级的深度特征的显著性区域;
对于每个深度空间特征DSFt i和深度时间特征DTFt i,将其均缩写为深度特征DFt i,则注意力模块产生的深度特征图AFt i的定义为:
AFt i=Ws*DFt i+bs(1)
其中,*表示卷积运算,Ws是卷积滤波器,bs表示偏差参数;
2-2.通过SoftMax操作获得每个深度特征图AFt i的注意力权重aft i
Figure BDA0002231291010000031
其中,(x,y)表示每个深度特征的空间坐标,(W,H)表示每个深度特征图AFt i的纵横比,
Figure BDA0002231291010000032
2-3.根据注意力权重选择有效的多级深度特征
Figure BDA0002231291010000033
Figure BDA0002231291010000034
其中,*表示在通道维度上进行Hadamard矩阵乘积运算;
Figure BDA0002231291010000035
为注意力模块生成的多级注意力深度特征,所述的多级注意力深度特征包括注意力深度空间特征
Figure BDA0002231291010000036
和注意力深度时间特征
Figure BDA0002231291010000037
2-4.根据多级注意力深度特征,对深度特征融合网络定义:
Figure BDA0002231291010000038
其中,H表示融合函数,H由1×1卷积层和反卷积层组成,[·]表示通道维度上的级联操作;
Figure BDA0002231291010000039
表示空间特征提取分支中的第i个卷积块的注意力深度空间特征,
Figure BDA00022312910100000310
表示时间特征提取分支中的第i个卷积块的注意力深度时间特征;
步骤(3).显著性预测,具体方法如下:
将1×1卷积层引入空间特征提取分支和时间特征提取分支中来自浅层conv1-2的边界信息;将两个边界信息和一个SoftMax层连接,构成显著性预测网络St
St=Fun([IFt i,BSFt,BTFt])(5)
其中,St表示显著性预测网络,Fun表示卷积层表征的函数,BSFt表示空间特征提取分支的边界信息,BTFt表示时间特征提取分支的边界信息;
步骤(4).对深度特征提取网络、深度特征融合网络和显著性预测网络以端到端的方式联合训练,具体方法如下:
使用SGD优化算法对网络模型进行训练,其中动量为0.9,权重衰减率为0.0001,基本学习率为10-8。采用VGG-16模型将空间特征提取分支和时间特征提取分支的权重参数初始化,采用‘msra’方法将深度特征融合网络初始化;采用镜面反射和旋转技术对训练数据集进行数据的增广;
对于具有N个训练样本的数据集
Figure BDA0002231291010000041
其中,
Figure BDA0002231291010000042
表示具有Np个像素点的当前帧;
Figure BDA0002231291010000043
表示具有Np个像素点的光流图像;
Figure BDA0002231291010000044
表示具有Np个像素点的二进制真值图;
Figure BDA0002231291010000045
表示显著目标像素,
Figure BDA0002231291010000046
表示背景像素,删除下标n且每一帧的{F,OP}相互独立,则损失函数为:
Figure BDA0002231291010000047
其中,W表示卷积核的权重,b表示卷积层的偏置,Y+表示显著目标的标签,Y-表示背景的标签;β表示显著目标像素在真值图中所占的比率,β=|Y+|/|Y-|;P(Yj=1|F,OP;W,b)表示像素属于显著目标的概率。
本发明有益效果如下:
本发明方法主要优势在于三个方面:深度特征融合中的注意力模块和分级融合,以及在显著性预测中融入边界信息。不同网络层和不同输入模态的深层特征对显著性预测的影响是显著不同的。本发明方法将注意力模块应用到源自于空间分支和时间分支的每个级别的深度特征,此处注意力模块相当于权重过滤器用以选择每个深度特征图中最显著的区域或最具代表性的区域。注意力模块的输出以分级的方式融合,这就增强了最终融合特征的上下文信息。特征提取网络的浅层特征中包含着丰富的显著对象的边界信息,为了获得显著性图的精细目标边界,本发明方法将边界信息引入到显著性预测中。本发明方法提供的网络模型可以充分有效地利用空间信息和时间信息来实现对视频中显著性目标的预测。
附图说明
图1为本发明方法的框架图;
图2为本发明方法中注意力模块的示意图。
图3为本发明方法的结果图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,本发明方法具体如下:
步骤(1).深度特征的提取,具体方法如下:
首先构建深度特征提取网络,所述的深度特征提取网络由对称的空间特征提取分支和时间特征提取分支组成;所述的空间特征提取分支和所述的时间特征提取分支基于VGG-16模型构建,每个分支包括13个卷积层,即5个卷积块,卷积核大小设置为3×3,步幅大小为1,以及4个最大池化层,池化大小设置为2×2,步幅大小为2;不同分支的卷积层中具有不同的权重参数。原因在于两个分支的输入是不同的,每个分支负责提取相应的不同特征。然后进行深度特征提取网络的输入,所述的空间特征提取分支的输入为当前帧Ft,所述的时间特征提取分支的输入为对应当前帧Ft的光流图像OPt,所述的空间特征提取分支负责提取深度空间特征{DSFt i,i=1,2,3,4,5},所述的时间特征提取分支负责提取深度时间特征{DTFt i,i=1,2,3,4,5}。
步骤(2).深度特征的融合,具体方法如下:
提取多级深度特征后,采用深度特征融合网络用于深度空间特征和深度时间特征的融合。为了增强上下文信息,深度特征融合网络采用了分级融合网络的方式。考虑到多级深度特征之间的差异,并采用注意力模块来对深度特征进行筛选;注意力模块作为权重过滤器,得到每个分支中每一级的深度特征的显著性区域。注意力模块示意图见图2。
对于每个深度特征DSFt i或DTFt i,将其缩写为DFt i,则注意力模块产生的深度特征图AFt i的定义为
Figure BDA0002231291010000051
其中,*表示卷积运算,Ws是卷积滤波器,bs表示偏差参数。通过SoftMax操作获得每个深度特征的注意力权重:
Figure BDA0002231291010000052
其中,(x,y)表示每个深度特征的空间坐标,(W,H)表示每个深度特征图AFt i的纵横比。
Figure BDA0002231291010000053
根据注意力权重选择有效的多级深度特征
Figure BDA0002231291010000054
其中,*表示在通道维度上进行Hadamard矩阵乘积运算;
Figure BDA0002231291010000055
为注意力模块生成的多级注意力深度特征,多级注意力深度特征分为注意力深度空间特征
Figure BDA0002231291010000056
和注意力深度时间特征
Figure BDA0002231291010000057
根据多级注意力深度特征,对分级融合网络定义:
Figure BDA0002231291010000058
其中,H表示融合函数,由1×1卷积层和反卷积层组成,[·]表示通道维度上的级联操作;
Figure BDA0002231291010000061
表示空间特征提取分支的第i个卷积块的注意力深度空间特征,
Figure BDA0002231291010000062
表示时间特征提取分支中的第i个卷积块的注意力深度时间特征。
步骤(3).显著性预测,具体方法如下:
通过融合特征IFt 1,进行显著性预测;为得到精细准确的显著性目标的边界,通过1×1卷积层引入空间特征提取分支和时间特征提取分支中来自浅层conv1-2的边界信息;将两个卷积层和一个SoftMax层连接,构成显著性预测网络,进行视频显著性的预测;St=Fun([IFt i,BSFt,BTFt])
其中,St表示显著性预测图,Fun表示卷积层表征的函数,BSFt表示空间特征提取分支的边界信息,BTFt表示时间特征提取分支的边界信息。
步骤(4).深度特征提取网络、深度特征融合网络和显著性预测网络以端到端的方式联合训练,具体方法如下:
使用SGD优化算法对模型进行训练,其中动量为0.9,权重衰减率为0.0001,基本学习率为10-8。采用VGG-16模型将空间特征提取分支和时间特征提取分支的权重参数初始化,采用‘msra’方法将融合网络深度特征融合网络初始化。采用镜面反射和旋转技术对训练数据集进行数据的增广。
对于具有N个训练样本的数据集
Figure BDA0002231291010000063
其中
Figure BDA0002231291010000064
表示具有Np个像素点的当前帧,
Figure BDA0002231291010000065
表示具有Np个像素点的光流图像和
Figure BDA0002231291010000066
表示具有Np个像素点的二进制真值图。
Figure BDA0002231291010000067
表示显著目标像素,
Figure BDA0002231291010000068
表示背景像素,删除下标n且每一帧的{F,OP}相互独立,则损失函数为:
Figure BDA0002231291010000069
其中,W表示卷积核的权重,b表示卷积层的偏置,Y+表示显著目标的标签,Y-表示背景的标签;β表示显著目标像素在真值图G中所占的比率,β=|Y+|/|Y-|。P(Yj=1|F,OP;W,b)表示像素属于显著目标的概率。

Claims (3)

1.一种基于深度融合的视频显著性检测方法,其特征在于包括以下步骤:
步骤(1).深度特征的提取,具体方法如下:
首先构建深度特征提取网络,所述的深度特征提取网络由对称的空间特征提取分支和时间特征提取分支组成;所述的空间特征提取分支和所述的时间特征提取分支基于VGG-16模型构建,不同分支在卷积层中具有不同的权重参数;然后进行深度特征提取网络的输入,所述的空间特征提取分支的输入为当前帧Ft,所述的时间特征提取分支的输入为对应当前帧Ft的光流图像OPt,所述的空间特征提取分支提取深度空间特征{DSFt i,i=1,2,3,4,5},所述的时间特征提取分支提取深度时间特征{DTFt i,i=1,2,3,4,5};
步骤(2).深度特征的融合,具体方法如下:
深度特征融合网络采用了分级融合网络的方式,首先采用注意力模块来对深度特征进行筛选,获得空间特征提取分支和时间特征提取分支中每一级的深度特征的显著性区域;
对于每个深度特征DSFt i或DTFt i,将其缩写为DFt i,则注意力模块产生的深度特征图AFt i的定义为
Figure FDA0002231290000000015
其中,*表示卷积运算,Ws是卷积滤波器,bs表示偏差参数;
通过SoftMax操作获得每个深度特征的注意力权重:
Figure FDA0002231290000000011
其中,(x,y)表示每个深度特征的空间坐标,(W,H)表示每个深度特征图AFt i的纵横比,
Figure FDA0002231290000000012
然后根据注意力权重选择有效的多级深度特征
Figure FDA0002231290000000016
其中,*表示在通道维度上进行Hadamard矩阵乘积运算;
Figure FDA0002231290000000017
为注意力模块生成的多级注意力深度特征,所述的多级注意力深度特征包括注意力深度空间特征
Figure FDA0002231290000000019
和注意力深度时间特征
Figure FDA0002231290000000018
根据多级注意力深度特征,对分级融合网络定义:
Figure FDA0002231290000000013
其中,H表示融合函数,H由1×1卷积层和反卷积层组成,[·]表示通道维度上的级联操作;
Figure FDA0002231290000000014
表示空间特征提取分支中的第i个卷积块的注意力深度空间特征,
Figure FDA0002231290000000021
表示时间特征提取分支中的第i个卷积块的注意力深度时间特征;
步骤(3).显著性预测,具体方法如下:
通过1×1卷积层引入空间特征提取分支和时间特征提取分支中来自浅层conv1-2的边界信息;将两个卷积层和一个SoftMax层连接,构成显著性预测网络;St=Fun([IFt i,BSFt,BTFt])
其中,St表示显著性预测图,Fun表示卷积层表征的函数,BSFt表示空间特征提取分支的边界信息,BTFt表示时间特征提取分支的边界信息;
步骤(4).深度特征提取网络、深度特征融合网络和显著性预测网络以端到端的方式联合训练,具体方法如下:
使用SGD优化算法对模型进行训练,采用VGG-16模型将空间特征提取分支和时间特征提取分支的权重参数初始化,采用‘msra’方法将融合网络深度特征融合网络初始化;采用镜面反射和旋转技术对训练数据集进行数据的增广;
对于具有N个训练样本的数据集
Figure FDA0002231290000000022
其中
Figure FDA0002231290000000023
表示具有Np个像素点的当前帧,
Figure FDA0002231290000000024
表示具有Np个像素点的光流图像和
Figure FDA0002231290000000025
表示具有Np个像素点的二进制真值图;
Figure FDA0002231290000000026
表示显著目标像素,
Figure FDA0002231290000000027
表示背景像素,删除下标n且每一帧的{F,OP}相互独立,则损失函数为:
Figure FDA0002231290000000028
其中,W表示卷积核的权重,b表示卷积层的偏置,Y+表示显著目标的标签,Y_表示背景的标签;β表示显著目标像素在真值图G中所占的比率,β=|Y+|/|Y-|;P(Yj=1|F,OP;W,b)表示像素属于显著目标的概率。
2.根据权利要求1所述的一种基于深度融合的视频显著性检测方法,其特征在于空间特征提取分支和时间特征提取分支包括13个卷积层,即5个卷积块,卷积核大小设置为3×3,步幅大小为1,以及4个最大池化层,池化大小设置为2×2,步幅大小为2。
3.根据权利要求1所述的一种基于深度融合的视频显著性检测方法,其特征在于所述的SGD优化算法中其中动量为0.9,权重衰减率为0.0001,基本学习率为10-8
CN201910968451.7A 2019-10-12 2019-10-12 一种基于深度融合的视频显著性检测方法 Pending CN110909594A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910968451.7A CN110909594A (zh) 2019-10-12 2019-10-12 一种基于深度融合的视频显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910968451.7A CN110909594A (zh) 2019-10-12 2019-10-12 一种基于深度融合的视频显著性检测方法

Publications (1)

Publication Number Publication Date
CN110909594A true CN110909594A (zh) 2020-03-24

Family

ID=69815575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910968451.7A Pending CN110909594A (zh) 2019-10-12 2019-10-12 一种基于深度融合的视频显著性检测方法

Country Status (1)

Country Link
CN (1) CN110909594A (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539983A (zh) * 2020-04-15 2020-08-14 上海交通大学 基于深度图像的运动物体分割方法及系统
CN111914852A (zh) * 2020-06-03 2020-11-10 杭州电子科技大学 一种基于编解码结构的多模态显著性对象检测方法
CN112016476A (zh) * 2020-08-31 2020-12-01 山东大学 由目标检测引导的复杂交通视觉显著性预测方法及系统
CN112132156A (zh) * 2020-08-18 2020-12-25 山东大学 多深度特征融合的图像显著性目标检测方法及系统
CN112348870A (zh) * 2020-11-06 2021-02-09 大连理工大学 一种基于残差融合的显著性目标检测方法
CN112784745A (zh) * 2021-01-22 2021-05-11 中山大学 基于置信度自适应和差分增强的视频显著物体检测方法
CN112800276A (zh) * 2021-01-20 2021-05-14 北京有竹居网络技术有限公司 视频封面确定方法、装置、介质及设备
CN112861733A (zh) * 2021-02-08 2021-05-28 电子科技大学 一种基于时空双编码的夜间交通视频显著性检测方法
CN113343772A (zh) * 2021-05-12 2021-09-03 武汉大学 一种基于隐式引导与显式教导策略的视频显著性目标检测方法
CN113538442A (zh) * 2021-06-04 2021-10-22 杭州电子科技大学 一种使用自适应特征融合的rgb-d显著目标检测方法
CN113536977A (zh) * 2021-06-28 2021-10-22 杭州电子科技大学 一种面向360度全景图像的显著性目标检测方法
CN113554599A (zh) * 2021-06-28 2021-10-26 杭州电子科技大学 一种基于人类视觉效应的视频质量评价方法
CN113627367A (zh) * 2021-08-16 2021-11-09 电子科技大学 一种基于多维信息聚合的立体视频显著性检测方法
CN113780305A (zh) * 2021-08-10 2021-12-10 西安电子科技大学 一种基于两种线索交互的显著性目标检测方法
CN113836979A (zh) * 2020-06-24 2021-12-24 顺丰科技有限公司 动作识别方法、装置、计算机设备和存储介质
CN114399839A (zh) * 2022-01-18 2022-04-26 平安科技(深圳)有限公司 基于特征融合的行为识别方法、装置、设备及存储介质
CN115035378A (zh) * 2022-08-09 2022-09-09 中国空气动力研究与发展中心计算空气动力研究所 基于时空域特征融合的红外弱小目标的检测方法及装置
CN115359019A (zh) * 2022-08-25 2022-11-18 杭州电子科技大学 基于交互式特征和级联特征的钢铁表面缺陷检测方法
CN115690451A (zh) * 2022-11-14 2023-02-03 南京航空航天大学 一种伪装物体和显著物体联合检测方法和系统
CN117557962A (zh) * 2023-11-23 2024-02-13 深圳市大数据研究院 基于图神经网络的异常视频检测方法以及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784183A (zh) * 2018-12-17 2019-05-21 西北工业大学 基于级联卷积网络和光流的视频显著性目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784183A (zh) * 2018-12-17 2019-05-21 西北工业大学 基于级联卷积网络和光流的视频显著性目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONGFA WEN等: ""Deep fusion based video saliency detection"", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539983A (zh) * 2020-04-15 2020-08-14 上海交通大学 基于深度图像的运动物体分割方法及系统
CN111539983B (zh) * 2020-04-15 2023-10-20 上海交通大学 基于深度图像的运动物体分割方法及系统
CN111914852B (zh) * 2020-06-03 2023-10-03 杭州电子科技大学 一种基于编解码结构的多模态显著性对象检测方法
CN111914852A (zh) * 2020-06-03 2020-11-10 杭州电子科技大学 一种基于编解码结构的多模态显著性对象检测方法
CN113836979A (zh) * 2020-06-24 2021-12-24 顺丰科技有限公司 动作识别方法、装置、计算机设备和存储介质
CN112132156A (zh) * 2020-08-18 2020-12-25 山东大学 多深度特征融合的图像显著性目标检测方法及系统
CN112132156B (zh) * 2020-08-18 2023-08-22 山东大学 多深度特征融合的图像显著性目标检测方法及系统
CN112016476A (zh) * 2020-08-31 2020-12-01 山东大学 由目标检测引导的复杂交通视觉显著性预测方法及系统
CN112016476B (zh) * 2020-08-31 2022-11-01 山东大学 由目标检测引导的复杂交通视觉显著性预测方法及系统
CN112348870A (zh) * 2020-11-06 2021-02-09 大连理工大学 一种基于残差融合的显著性目标检测方法
CN112800276A (zh) * 2021-01-20 2021-05-14 北京有竹居网络技术有限公司 视频封面确定方法、装置、介质及设备
CN112800276B (zh) * 2021-01-20 2023-06-20 北京有竹居网络技术有限公司 视频封面确定方法、装置、介质及设备
CN112784745B (zh) * 2021-01-22 2023-10-10 中山大学 基于置信度自适应和差分增强的视频显著物体检测方法
CN112784745A (zh) * 2021-01-22 2021-05-11 中山大学 基于置信度自适应和差分增强的视频显著物体检测方法
CN112861733A (zh) * 2021-02-08 2021-05-28 电子科技大学 一种基于时空双编码的夜间交通视频显著性检测方法
CN113343772B (zh) * 2021-05-12 2022-06-14 武汉大学 一种基于隐式引导与显式教导策略的视频显著性目标检测方法
CN113343772A (zh) * 2021-05-12 2021-09-03 武汉大学 一种基于隐式引导与显式教导策略的视频显著性目标检测方法
CN113538442A (zh) * 2021-06-04 2021-10-22 杭州电子科技大学 一种使用自适应特征融合的rgb-d显著目标检测方法
CN113538442B (zh) * 2021-06-04 2024-04-09 杭州电子科技大学 一种使用自适应特征融合的rgb-d显著目标检测方法
CN113554599B (zh) * 2021-06-28 2023-08-18 杭州电子科技大学 一种基于人类视觉效应的视频质量评价方法
CN113536977B (zh) * 2021-06-28 2023-08-18 杭州电子科技大学 一种面向360度全景图像的显著性目标检测方法
CN113536977A (zh) * 2021-06-28 2021-10-22 杭州电子科技大学 一种面向360度全景图像的显著性目标检测方法
CN113554599A (zh) * 2021-06-28 2021-10-26 杭州电子科技大学 一种基于人类视觉效应的视频质量评价方法
CN113780305A (zh) * 2021-08-10 2021-12-10 西安电子科技大学 一种基于两种线索交互的显著性目标检测方法
CN113780305B (zh) * 2021-08-10 2024-03-12 西安电子科技大学 一种基于两种线索交互的显著性目标检测方法
CN113627367A (zh) * 2021-08-16 2021-11-09 电子科技大学 一种基于多维信息聚合的立体视频显著性检测方法
CN113627367B (zh) * 2021-08-16 2023-04-07 电子科技大学 一种基于多维信息聚合的立体视频显著性检测方法
CN114399839A (zh) * 2022-01-18 2022-04-26 平安科技(深圳)有限公司 基于特征融合的行为识别方法、装置、设备及存储介质
WO2023137915A1 (zh) * 2022-01-18 2023-07-27 平安科技(深圳)有限公司 基于特征融合的行为识别方法、装置、设备及存储介质
CN114399839B (zh) * 2022-01-18 2024-10-15 平安科技(深圳)有限公司 基于特征融合的行为识别方法、装置、设备及存储介质
CN115035378A (zh) * 2022-08-09 2022-09-09 中国空气动力研究与发展中心计算空气动力研究所 基于时空域特征融合的红外弱小目标的检测方法及装置
CN115359019A (zh) * 2022-08-25 2022-11-18 杭州电子科技大学 基于交互式特征和级联特征的钢铁表面缺陷检测方法
CN115690451A (zh) * 2022-11-14 2023-02-03 南京航空航天大学 一种伪装物体和显著物体联合检测方法和系统
CN117557962A (zh) * 2023-11-23 2024-02-13 深圳市大数据研究院 基于图神经网络的异常视频检测方法以及系统

Similar Documents

Publication Publication Date Title
CN110909594A (zh) 一种基于深度融合的视频显著性检测方法
CN110570458B (zh) 一种基于内部裁剪和多层特征信息融合的目标跟踪方法
CN110210539B (zh) 多级深度特征融合的rgb-t图像显著性目标检测方法
CN109543502B (zh) 一种基于深度多尺度神经网络的语义分割方法
CN111582316B (zh) 一种rgb-d显著性目标检测方法
CN111696110B (zh) 场景分割方法及系统
CN112434608B (zh) 一种基于双流结合网络的人体行为识别方法及系统
CN112464851A (zh) 一种基于视觉感知的智能电网异物入侵检测方法及系统
Yin et al. Visual attention dehazing network with multi-level features refinement and fusion
CN114693924A (zh) 一种基于多模型融合的道路场景语义分割方法
CN114549574A (zh) 一种基于掩膜传播网络的交互式视频抠图系统
CN111461129B (zh) 一种基于上下文先验的场景分割方法和系统
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
CN112070040A (zh) 一种用于视频字幕的文本行检测方法
CN113033454A (zh) 一种城市视频摄像中建筑物变化的检测方法
CN114638836A (zh) 基于高度有效驱动与多层级特征融合的城市街景分割方法
CN114494934A (zh) 一种基于信息减少率的无监督运动目标检测方法
CN114373092A (zh) 一种基于拼图排列学习的渐进式训练细粒度视觉分类方法
CN113536977A (zh) 一种面向360度全景图像的显著性目标检测方法
CN111612803B (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN110942463B (zh) 一种基于生成对抗网络的视频目标分割方法
CN116386021A (zh) 一种结合协同学习和级联特征融合的场景文本检测方法
CN116778180A (zh) 一种基于多级特征和上下文信息融合的rgb-d显著性目标检测方法
CN114882252B (zh) 半监督遥感影像变化检测方法、装置和计算机设备
CN116452472A (zh) 基于语义知识引导的低照度图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200324

WD01 Invention patent application deemed withdrawn after publication