CN112784745B - 基于置信度自适应和差分增强的视频显著物体检测方法 - Google Patents
基于置信度自适应和差分增强的视频显著物体检测方法 Download PDFInfo
- Publication number
- CN112784745B CN112784745B CN202110085715.1A CN202110085715A CN112784745B CN 112784745 B CN112784745 B CN 112784745B CN 202110085715 A CN202110085715 A CN 202110085715A CN 112784745 B CN112784745 B CN 112784745B
- Authority
- CN
- China
- Prior art keywords
- information
- features
- confidence
- enhancement
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 230000002123 temporal effect Effects 0.000 claims abstract description 28
- 238000010586 diagram Methods 0.000 claims abstract description 15
- 230000000295 complement effect Effects 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 8
- 230000006978 adaptation Effects 0.000 claims description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
Abstract
本发明公开了一种基于置信度自适应和差分增强的视频显著物体检测方法,所述方法输入一对原图和光流图,编码器分别提取不同层级的空间特征和时间特征;提取到的同一层级的空间特征和时间特征被送入置信度自适应模块中进行重新校正,使得有用信息被传递,噪声信息被抑制;然后,差分信息增强模块利用差分信息对重新校正后的空间特征和时间特征进行互补增强并得到融合特征;在不同层级的融合特征经过解码器层层上采样,最终得到显著物体图。提出的差分信息增强模块通过提取差分信息增强了空间信息和时间信息完整表示显著物体的能力,有利于模型完整地分割出显著物体。
Description
技术领域
本发明属于视频图像检测研究技术领域,特别涉及一种基于置信度自适应和差分增强的视频显著物体检测方法。
技术背景
视频显著物体检测任务指的是通过分析输入的视频序列,从中定位出最吸引人注意的物体,即显著物体,并对其进行像素级的分割。该任务源自于认知研究中人类的视觉注意行为,即人类能够快速将注意力转移到视觉场景中信息量最大的区域。视频显著物体检测是计算机视觉领域的经典问题,被广泛应用于其他复杂任务,如视频压缩,视频描述和行人重识别。在视频序列中,显著物体的定位不仅受到表观颜色的影响,还受到运动快慢的影响。因此,视频显著物体检测任务不仅需要提取单张图片中的空间信息,还需要挖掘视频序列中的时间信息。传统的视频显著物体检测方法根据先验知识来融合空间信息和时间信息,例如时空背景先验和低秩一致性先验。但是,受制于手工提取的低层级特征,传统的视频显著物体检测方法性能较差。随着人工智能的快速发展,基于深度学习的视频显著物体检测方法性能大大提升。现有的基于深度学习的视频显著物体检测方法主要分为单流网络框架和双流网络框架。单流网络框架主要由一个空间特征提取器和一个记忆模块构成。空间特征提取器分别提取多张图片的空间特征,再将多张图片的空间特征输入到记忆模块中,由记忆模块提取时间信息,最后得到显著图。双流网络框架使用空间特征提取器和时间特征提取器分别提取来自单张图片的空间特征和来自光流的时间特征,并融合时间特征和空间特征来预测显著图。
基于单流网络框架的视频显著物体检测方法采用先提取空间信息后提取时间信息的流程,时间信息的提取依赖于先前得到的空间信息,这不仅导致了噪声的传递和误差的累积,降低模型的鲁棒性,也忽略了空间信息和时间信息的互补作用,未能充分挖掘具有判别性的信息,导致预测的显著物体图不完整。而基于双流网络框架的视频显著物体检测方法往往直接对空间信息和时间信息进行融合,未能考虑空间信息和时间信息中噪声对模型性能的影响。
发明内容
鉴于现有技术的缺陷,本发明旨在于提供一种基于置信度自适应和差分增强的视频显著物体检测方法。通过本发明的方法能够自适应提取原图输入和光流图输入中有用的空间信息和时间信息。整个网络框架是一个双流结构,包括原图输入的空间信息流和光流图输入的时间信息流,可同时提取表示颜色显著性的空间特征和表示运动显著性的空间特征。
为了实现上述目的,本发明采用的技术方案如下:
基于置信度自适应和差分增强的视频显著物体检测方法,所述方法包括输入一对原图和光流图,编码器分别提取不同层级的空间特征和时间特征;提取到的同一层级的空间特征和时间特征被送入置信度自适应模块中进行重新校正,使得有用信息被传递,噪声信息被抑制;然后,差分信息增强模块利用差分信息对重新校正后的空间特征和时间特征进行互补增强并得到融合特征;在不同层级的融合特征经过解码器层层上采样,最终得到显著物体图。
优选的,所述置信度自适应模块分别由分割器和预测器构成,其中,所述分割器和所述预测器均由3层卷积核大小为3x3的卷积层串联而成;接收来自编码器的特征作为输入,所述分割器分割得到一张低分辨率的显著物体图;将所述分割器预测得到的所述显著物体图与原先的输入特征进行通道上的拼接后送入所述预测器;所述预测器通过分析所述显著物体图与所述输入特征,预测一个能够表示输入特征置信度的得分。
需要说明的是,所述置信度得分的计算公式如下:
其中,Ei表示输入特征,Fseg和Fpred分别代表分割器和预测器。σ指的是sigmoid函数,用于将置信度得分限制在0到1之间。
需要进一步说明的是,在得到输入特征的所述置信度得分后,使用所述置信度得分对输入特征进行加权;置信度自适应模块的计算公式如下:
优选的,使用所述差分信息增强模块充分利用空间特征和时间特征之间的互补信息时,首先获得空间特征和时间特征之间的差,再通过一个卷积核大小为3x3的卷积层得到空间特征和时间特征的差分信息;将差分信息加回原来的空间特征和时间特征上,补充了原来的特征,起到特征增强的作用;最后,融合增强后的空间特征和时间特征以得到完整的显著性信息
需要说明的是,差分信息增强模块的计算公式如下:
其中,和/>分别表示置信度自适应模块校正后的空间特征和时间特征。
本发明的有益效果在于,能够自适应提取原图输入和光流图输入中有用的空间信息和时间信息,得到完整的显著物体图。整个网络框架是一个双流结构,包括原图输入的空间信息流和光流图输入的时间信息流,可同时提取表示颜色显著性的空间特征和表示运动显著性的空间特征。本发明的框架包含2个主要模块,置信度自适应模块和差分信息增强模块,分别起到抑制噪声和补充信息的作用。提出的置信度自适应模块能够衡量输入空间信息和时间信息的置信度,既保持了高置信度的有用信息,也抑制了低置信度的噪声信息,有利于模型准确定位出显著物体。提出的差分信息增强模块通过提取差分信息增强了空间信息和时间信息完整表示显著物体的能力,有利于模型完整地分割出显著物体。并且通过实验结果证明,本发明能够准确且完整地预测显著物体图,且优于最好的现有技术。
附图说明
图1为本发明网络框架图;
图2为本发明置信度自适应模块示意图;
图3为本发明差分信息增强模块示意图;
图4为本发明与主流方法显著物体图比较结果。
具体实施例
以下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
本发明为一种基于置信度自适应和差分增强的视频显著物体检测方法,所述方法输入一对原图和光流图,编码器分别提取不同层级的空间特征和时间特征;提取到的同一层级的空间特征和时间特征被送入置信度自适应模块中进行重新校正,使得有用信息被传递,噪声信息被抑制;然后,差分信息增强模块利用差分信息对重新校正后的空间特征和时间特征进行互补增强并得到融合特征;在不同层级的融合特征经过解码器层层上采样,最终得到显著物体图。
优选的,所述置信度自适应模块分别由分割器和预测器构成,其中,所述分割器和所述预测器均由3层卷积核大小为3x3的卷积层串联而成;接收来自编码器的特征作为输入,所述分割器分割得到一张低分辨率的显著物体图;将所述分割器预测得到的所述显著物体图与原先的输入特征进行通道上的拼接后送入所述预测器;所述预测器通过分析所述显著物体图与所述输入特征,预测一个能够表示输入特征置信度的得分。
需要说明的是,所述置信度得分的计算公式如下:
其中,Ei表示输入特征,Fseg和Fpred分别代表分割器和预测器。σ指的是sigmoid函数,用于将置信度得分限制在0到1之间。
需要进一步说明的是,在得到输入特征的所述置信度得分后,使用所述置信度得分对输入特征进行加权;置信度自适应模块的计算公式如下:
优选的,使用所述差分信息增强模块充分利用空间特征和时间特征之间的互补信息时,首先获得空间特征和时间特征之间的差,再通过一个卷积核大小为3x3的卷积层得到空间特征和时间特征的差分信息;将差分信息加回原来的空间特征和时间特征上,补充了原来的特征,起到特征增强的作用;最后,融合增强后的空间特征和时间特征以得到完整的显著性信息
需要说明的是,差分信息增强模块的计算公式如下:
其中,和/>分别表示置信度自适应模块校正后的空间特征和时间特征。
实施例1
如图1所示,本发明的整个网络框架是一个双流结构,包括原图输入的空间信息流和光流图输入的时间信息流,可同时提取表示颜色显著性的空间特征和表示运动显著性的时间特征。显著物体图的预测基于编码器-解码器流程,主要为图片输入和光流输入共享的编码器,输出显著物体图的解码器,一系列置信度自适应模块和差分信息增强模块。对于编码器,本发明采用ResNet-101网络结构。
进一步的,输入一对原图和光流图,编码器分别提取不同层级的空间特征和时间特征。提取到的同一层级的空间特征和时间特征被送入置信度自适应模块中进行重新校正,使得有用信息被传递,噪声信息被抑制。接着,差分信息增强模块利用差分信息对重新校正后的空间特征和时间特征进行互补增强并得到融合特征。最后,不同层级的融合特征经过解码器层层上采样,最终得到显著物体图。
在现实场景中,原图和光流图不可避免地包含不可靠的噪声信息,这些信息的传播与使用会严重降低模型的性能。所以,如何衡量信息的可靠性并抑制不可靠的噪声信息是至关重要的。为了解决这个问题,我们提出了置信度自适应模块,如图2所示。该模块主要由2个部分构成,分别是分割器和预测器。分割器和预测器都由3层卷积核大小为3x3的卷积层串联而成。接收来自编码器的特征作为输入,分割器分割得到一张低分辨率的显著物体图。为了得到准确的低分辨率显著物体图,使用下采样后的显著物体图标签来监督分割器的学习。接着,将分割器预测得到的显著物体图与原先的输入特征进行通道上的拼接后送入预测器。预测器通过分析显著物体图与输入特征,预测一个能够表示输入特征置信度的得分。为了显式表示特征的置信度,我们计算分割器预测得到的显著物体图和显著物体图标签的交并比,作为监督信号引导预测器的学习。置信度得分的计算公式如下:
其中,Ei表示输入特征,Fseg和Fpred分别代表分割器和预测器。σ指的是sigmoid函数,用于将置信度得分限制在0到1之间。
在得到输入特征的置信度得分后,使用这个置信度得分对输入特征进行加权。通过这个操作,保持了高置信度的特征,抑制了低置信度的特征,起到自适应调整特征的作用。具体的说,置信度自适应模块的计算公式如下:
对于输入的空间特征和时间特征,置信度自适应模块能够预测出特征的置信度得分,作为特征可靠性的评判依据。对于置信度得分低的特征,置信度自适应模块能够对其进行抑制,降低对显著物体图预测的负面影响。对于置信度得分高的特征,置信度自适应模块允许其通过,保持其对显著物体预测的正面影响。
空间特征包含颜色显著性信息,时间特征包含运动显著性信息,视频显著物体检测任务需要综合考虑颜色显著性信息和运动显著性信息。因此,本发明需要综合考虑空间特征和时间特征来预测准确完整的显著物体图。为此,本发明提出了差分信息增强模块来充分利用空间特征和时间特征之间的互补信息,如图3所示。首先,以相减的方法计算空间特征和时间特征之间的差,再通过一个卷积核大小为3x3的卷积层得到空间特征和时间特征的差分信息。差分信息表示空间特征和时间特征之间差异的信息。接着,本发明将差分信息加回原来的空间特征和时间特征上,补充了原来的特征,起到特征增强的作用。最后,融合增强后的空间特征和时间特征以得到完整的显著性信息。差分信息增强模块的计算公式如下:
其中,和/>分别表示置信度自适应模块校正后的空间特征和时间特征。
实施例2
本实施例通过实验对方法的效果进行说明,实验数据库选择DAVSOD数据库、DAVIS数据库、SegV2数据库和FBMS数据库。其中,DAVSOD数据库包含226条视频序列,共计23938个视频帧,覆盖了多种复杂现实场景,是最具挑战性的大型视频显著物体检测数据库。DAVIS数据库包含50条视频序列,共计3455个高质量标注的视频帧,其中的显著物体具有不同程度的遮挡和不规则边缘,是最广泛应用的视频显著物体检测数据库。SegV2数据库包含13条视频序列,涉及多种动物、交通工具和人物。FBMS数据库包含59条视频序列,该数据库采用稀疏标注,共有720个标注视频帧。实验评估指标采用F-measure(F)、S-measure(S)和平均绝对误差(MAE)。
本实施例将本发明的方法与现有的一些主流的基于深度学习的方法进行了比较,在DAVSOD数据库、DAVIS数据库、SegV2数据库和FBMS数据库上的比较结果如表1所示。由表1结果可知,本发明在DAVSOD数据库、DAVIS数据库、SegV2数据库和FBMS数据库上分别达到了0.670、0.898、0.826、0.858的F-measure,0.762、0.906、0.865、0.870的S-measure,0.072、0.018、0.027、0.039的MAE,领先于大部分视频显著物体检测主流方法,这表明了本发明在视频显著物体检测的效果已经达到领域先进水平。
表1本发明与主流方法比较结果
同时,为了直观地展示本发明的优越性,将本发明的方法与主流方法的显著物体图进行比较,如图4所示。由图4第1、5行结果可知,在多个运动物体的场景下,本发明能够减少噪声的影响,精确地定位出显著物体。由图4第2、3、4行结果可知,在杂乱的前景和背景的情况下,本发明能充分考虑空间信息和时间信息的互补作用,从而得到完整的显著物体图。
最后,本发明还在DAVSOD数据库和DAVIS数据库上验证置信度自适应模块和差分信息增强模块这两种模块的有效性,如表2所示。由表2可知,置信度自适应模块和差分信息模块都能不同程度的提高模型性能。而且,置信度自适应模块和差分信息增强模块这两者结合能达到最好的效果。
表2本发明各部分效果
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变,而所有的这些改变,都应该包括在本发明权利要求的保护范围之内。
Claims (3)
1.基于置信度自适应和差分增强的视频显著物体检测方法,其特征在于,所述方法包括输入一对原图和光流图,编码器分别提取不同层级的空间特征和时间特征;提取到的同一层级的空间特征和时间特征被送入置信度自适应模块中进行重新校正,使得有用信息被传递,噪声信息被抑制;然后,差分信息增强模块利用差分信息对重新校正后的空间特征和时间特征进行互补增强并得到融合特征;在不同层级的融合特征经过解码器层层上采样,最终得到显著物体图;所述置信度自适应模块分别由分割器和预测器构成,其中,所述分割器和所述预测器均由3层卷积核大小为3x3的卷积层串联而成;接收来自编码器的特征作为输入,所述分割器分割得到一张低分辨率的显著物体图;将所述分割器预测得到的所述显著物体图与原先的输入特征进行通道上的拼接后送入所述预测器;所述预测器通过分析所述显著物体图与所述输入特征,预测一个能够表示输入特征置信度的得分;使用所述差分信息增强模块充分利用空间特征和时间特征之间的互补信息时,首先获得空间特征和时间特征之间的差,再通过一个卷积核大小为3x3的卷积层得到空间特征和时间特征的差分信息;将差分信息加回原来的空间特征和时间特征上,补充了原来的特征,起到特征增强的作用;最后,融合增强后的空间特征和时间特征以得到完整的显著性信息;差分信息增强模块的计算公式如下:
其中,Ri RGB和Ri OF分别表示置信度自适应模块校正后的空间特征和时间特征。
2.根据权利要求1所述的基于置信度自适应和差分增强的视频显著物体检测方法,其特征在于,所述置信度得分的计算公式如下:
其中,Ei表示输入特征,Fseg和Fpred分别代表分割器和预测器;σ指的是sigmoid函数,用于将置信度得分限制在0到1之间。
3.根据权利要求1所述的基于置信度自适应和差分增强的视频显著物体检测方法,其特征在于,在得到输入特征的所述置信度得分后,使用所述置信度得分对输入特征进行加权;置信度自适应模块的计算公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110085715.1A CN112784745B (zh) | 2021-01-22 | 2021-01-22 | 基于置信度自适应和差分增强的视频显著物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110085715.1A CN112784745B (zh) | 2021-01-22 | 2021-01-22 | 基于置信度自适应和差分增强的视频显著物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112784745A CN112784745A (zh) | 2021-05-11 |
CN112784745B true CN112784745B (zh) | 2023-10-10 |
Family
ID=75758509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110085715.1A Active CN112784745B (zh) | 2021-01-22 | 2021-01-22 | 基于置信度自适应和差分增强的视频显著物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112784745B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283453B (zh) * | 2021-06-15 | 2023-08-08 | 深圳大学 | 目标检测方法、装置、计算机设备和存储介质 |
CN114445442B (zh) * | 2022-01-28 | 2022-12-02 | 杭州电子科技大学 | 基于非对称交叉融合的多光谱图像语义分割方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101325691A (zh) * | 2007-06-14 | 2008-12-17 | 清华大学 | 融合不同生存期的多个观测模型的跟踪方法和跟踪装置 |
CN101706576A (zh) * | 2009-11-13 | 2010-05-12 | 山东大学 | 基于雷达图像的运动目标形态检测及跟踪方法 |
CN102184550A (zh) * | 2011-05-04 | 2011-09-14 | 华中科技大学 | 一种动平台地面运动目标检测方法 |
CN110598537A (zh) * | 2019-08-02 | 2019-12-20 | 杭州电子科技大学 | 一种基于深度卷积网络的视频显著性检测方法 |
CN110909594A (zh) * | 2019-10-12 | 2020-03-24 | 杭州电子科技大学 | 一种基于深度融合的视频显著性检测方法 |
CN111583173A (zh) * | 2020-03-20 | 2020-08-25 | 北京交通大学 | 一种rgb-d图像显著性目标检测方法 |
-
2021
- 2021-01-22 CN CN202110085715.1A patent/CN112784745B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101325691A (zh) * | 2007-06-14 | 2008-12-17 | 清华大学 | 融合不同生存期的多个观测模型的跟踪方法和跟踪装置 |
CN101706576A (zh) * | 2009-11-13 | 2010-05-12 | 山东大学 | 基于雷达图像的运动目标形态检测及跟踪方法 |
CN102184550A (zh) * | 2011-05-04 | 2011-09-14 | 华中科技大学 | 一种动平台地面运动目标检测方法 |
CN110598537A (zh) * | 2019-08-02 | 2019-12-20 | 杭州电子科技大学 | 一种基于深度卷积网络的视频显著性检测方法 |
CN110909594A (zh) * | 2019-10-12 | 2020-03-24 | 杭州电子科技大学 | 一种基于深度融合的视频显著性检测方法 |
CN111583173A (zh) * | 2020-03-20 | 2020-08-25 | 北京交通大学 | 一种rgb-d图像显著性目标检测方法 |
Non-Patent Citations (1)
Title |
---|
融合双目多维感知特征的立体视频显著性检测;周洋;何永健;唐向宏;陆宇;蒋刚毅;;中国图象图形学报(第03期);第1-3页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112784745A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829443B (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN110176027B (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
WO2023056889A1 (zh) | 模型训练和场景识别方法、装置、设备及介质 | |
CN110378288B (zh) | 一种基于深度学习的多级时空运动目标检测方法 | |
CN109948721B (zh) | 一种基于视频描述的视频场景分类方法 | |
CN112784745B (zh) | 基于置信度自适应和差分增强的视频显著物体检测方法 | |
CN112861830B (zh) | 特征提取方法、装置、设备、存储介质以及程序产品 | |
CN113936235A (zh) | 一种基于质量评估的视频显著性目标检测方法 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN112651423A (zh) | 一种智能视觉系统 | |
CN114092774B (zh) | 基于信息流融合的rgb-t图像显著性检测系统及检测方法 | |
CN114663371A (zh) | 基于模态独有和共有特征提取的图像显著目标检测方法 | |
CN112651459A (zh) | 深度学习图像对抗样本防御方法、装置、设备及存储介质 | |
CN114821318B (zh) | 一种基于Darkdet-Net的低照度小样本目标检测方法 | |
CN116363361A (zh) | 基于实时语义分割网络的自动驾驶方法 | |
CN113936034B (zh) | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 | |
CN110689014A (zh) | 感兴趣区域的检测方法、装置、电子设备及可读存储介质 | |
CN117689617A (zh) | 基于去雾约束网络和串联多尺度注意力的绝缘子检测方法 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN115641445B (zh) | 一种非对称内卷积与Transformer相融合的遥感图像阴影检测方法 | |
CN115937742B (zh) | 视频场景分割、视觉任务处理方法、装置、设备以及介质 | |
CN114155255B (zh) | 一种基于特定人物时空轨迹的视频横屏转竖屏方法 | |
CN115761438A (zh) | 一种基于深度估计的显著性目标检测方法 | |
Liu et al. | Attention-guided lightweight generative adversarial network for low-light image enhancement in maritime video surveillance | |
CN112699878B (zh) | 一种注视点指导的显著目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |