CN112381076A - 一种视频显著性检测任务中图片预处理的方法 - Google Patents
一种视频显著性检测任务中图片预处理的方法 Download PDFInfo
- Publication number
- CN112381076A CN112381076A CN202110059470.5A CN202110059470A CN112381076A CN 112381076 A CN112381076 A CN 112381076A CN 202110059470 A CN202110059470 A CN 202110059470A CN 112381076 A CN112381076 A CN 112381076A
- Authority
- CN
- China
- Prior art keywords
- frame
- picture
- frames
- candidate set
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种视频显著性检测任务中图片预处理的方法,更具体的说,涉及到判别视频任务所读取图片和任务的相关性,作为判别依据在视频帧输入深度学习模型之前进行筛选,属于计算机视觉领域。针对现有视频显著性识别技术中没有有效识别模型读取帧且无法适用于多场景视频的问题,本方法通过在图片读取中进行冗余图片检测、场景切换识别的方法,实现了模型自适应读取图片的功能,提高了模型准确率。将该方法进行封装,封装后的模块可以加入任意处理视频任务的深度学习模型中,提升模型应对各种视频场景的鲁棒性。并且待测图片集中在输入模型之前剔除与任务不相关的图片,使得深度学习模型更容易拟合。
Description
技术领域
本发明涉及一种视频显著性检测任务中图片预处理的方法,属于计算机视觉领域。
背景技术
当人类看到丰富且变化的场景时,人类的视觉系统可以快速定位关键区域而模糊化其他部分,视频显著性检测的目标就是通过深度学习模型来模拟人眼这个特性。这种方法可以从大量的视频数据中定位关键区域或者是关键的帧,能够有效排除大量的冗余数据,加快深度学习算法的效率,所以该类型的方法被广泛应用于视频监控、视频提取、视频压缩、场景分割等计算机视觉任务中。
得益于人工智能技术的进步,特别是深度学习技术在近几年的大力发展,有很多的视频显著性检测算法被开发出来。在2017年以前主流的方法是基于长短期神经网络来聚合视频的时间信息,或是使用二维卷积神经网络提取图片空间的特征,在此基础上将特征传递给长短期神经网络来处理。在2018年之后表现最优良的模型是基于三维卷积神经网络端到端的处理方法,不同于之前的方法需要将视频空间和时间的信息分别处理,三维卷积核能同时利用时间和空间的特征,更好的结合视频的上下文信息开发出更精准的模型,本发明也是针对三维卷积的模型进行进一步优化。
目前,现有的视频显著性检测方法在每次读取数据时,只能从时序上取固定的帧数(如一次性读取连续的16帧或者32帧图片),来生成一帧显著性检测结果。例如在TASED-Net模型中,生成当前帧的显著性检测结果需要读取当前帧之后的连续32帧图片。真实视频中,由于会存在大量高度相似的帧,特别是在移动缓慢的场景中,因此读取固定的输入帧时会存在大量的冗余信息,造成计算资源的浪费和降低模型准确度。更重要的是读取固定帧数只能处理单一的视频场景,当视频发生场景切换时,由于大量使用之前场景的图片从而导致新场景的显著性检测出现错误。深度学习模型视频的场景切换包含下列可能,后期视频剪辑,拍摄场景和光照条件。后期视频剪辑混合各种场景后会造成时序上实质信息的切割,后两种类型如拍摄时走过转角场景发生变化,进入隧道中光线明暗的变化,虽然视频信息是连续的,但实验结果表明,会对深度学习模型造成同视频剪辑类似的影响,进而降低模型的准确率甚至完全失效。
总体而言,目前的视频显著性检测方法都是基于深度学习模型的算法,且没有好的识别场景切换和检测冗余图片的策略。
发明内容
本发明要解决的技术问题是:针对现有视频显著性检测技术中没有有效识别模型读取帧且无法适用于多场景视频的问题。本方法通过在图片读取中进行场景切换识别、冗余图片检测的方法,实现了模型自适应读取图片的功能,提高了模型准确率。若将该方法进行封装,封装后的模块可以加入任意处理视频任务的深度学习模型中,使得该模型拥有冗余图片检测和场景切换识别的功能。
为了解决上述问题,该方法包括下列步骤:
1)获取图片候选集;
2)使用修改后Ghostnet神经网络获取图片候选集的视频特征矩阵;
3)根据视频特征矩阵,使用Pearson相关系数来得到相邻图片的线性相关性;
4)基于Pearson相关系数进行场景切换识别和冗余图片检测,生成新的图片候选集。
优选地,步骤2)模型的训练首先要基于ImageNet,使得模型可以进行1000种类的分类任务。然后去掉Ghostnet的分类模块,包含了平均池化层,1x1卷积核的卷积层和全连接层。每张图片通过修改后的模型会生成一个960×1的特征矩阵,将图片候选集的特征矩阵拼接起来生成视频特征矩阵。
优选地,步骤3)根据视频特征矩阵,使用Pearson相关系数来得到相邻图片的线性相关性,包括:通过Pearson相关系数的方法判定得到时序间帧的相关性,所述相关性的分类界限是Pearson相关系数在0~0.45为两帧无相关,0.45~0.75为两帧弱相关,0.75~0.98为两帧强相关,0.98~1为两帧高度相似。
优选地,步骤4)场景切换识别,生成新的图片候选集的详细步骤包括:
4.1)提取当前帧的序号,当前帧是需要生成显著性检测结果的帧,扩大图片搜索范围,生成图片候选集。图片候选集帧的数量和Pearson相关系数个数有对应关系,如当前图片候选集共有n帧,则对应的Pearson相关系数共有n-1个;
4.2)若Pearson相关系数集合中的值都大于阈值,说明无场景切换,图片候选集不变,搜索结束。若有值小于阈值,则该值所对应的下一帧图片发生场景切换,进入下一步;
4.3)判断场景切换发生在当前帧之前或是之后,如果发生在当前帧之后,执行步骤4.4);否则,跳转执行步骤4.5);
4.4)丢弃场景切换的帧和其之后的所有帧,从未发生场景切换的帧进行补帧,直到满足需要的固定帧数,生成新的图片候选集;
4.5)判定当前帧是否发生场景切换,如果当前帧是场景切换的帧,丢弃当前帧之前的所有帧;否则,丢弃场景切换的帧和其之前的所有帧,生成新的图片候选集;若不满足固定帧数,从未发生场景切换的帧中进行补帧,生成新的不包含场景切换的图片候选集;
4.6)根据4.5生成的图片候选集,当图片候选集对应的Pearson相关系数高于阈值时,说明存在冗余图片则删去对应的帧,生成新的图片候选集;
4.7)图片候选集根据同当前帧的距离远近重新排序;
4.8)依次对图片候选集中的帧进行判断,如果不满足下列公式,则丢弃该帧:
4.9)如果图片候选集中剩余的帧数不满足固定帧数,从不存在冗余图片的帧中进行补帧,生成新的不包含冗余图片的图片候选集。
与现有技术相比,本发明具有以下有益效果:(1)在不修改模型的情况下,提高深度学习模型的准确率;(2)提升用于视频任务的深度学习模型的鲁棒性,使模型适用于多种视频场景;(3)剔除与任务不相关的输入图片,使得深度学习模型更容易拟合;(4)方法易于使用和封装,适用于多种视频相关的深度学习任务。
附图说明
通过阅读参照以下附图所做的详细描述,本申请的其他特征、目的和优点将会变得更加明显:
图1是本方法技术路线图。
图2是生成Pearson相关系数示意图。
图3是场景切换识别示意图。
图4是冗余图片检测示意图。
图5是无场景切换的显著性检测图。
图6是有场景切换的显著性检测图。
具体实施方式
下面结合附图和实施例对本申请做进一步的详细说明。可以理解的是,此处所描述的具体实施仅仅用于解释相关方法,而非对该方法的使用进行限定。另外还需要说明的是,为了便于描述,附图中仅示出了与该方法相关的部分。下面将参考附图来详细说明本申请。
图1是方法的技术路线图,可以用于多种深度学习视频任务中,能在不改变模型参数的情况下提高模型的准确率和鲁棒性,包括以下步骤:
步骤S100,读取预选图片。
在本方法中,用于预处理的图片需要首先了解后续模型的固定帧数,在原本基础上扩大预处理图片的搜索范围。其中,模型的输入图片数是不一样的,常见的有16和32帧,需要先将搜索范围扩大,当发生场景切换或是存在冗余帧时会丢弃一部分帧,这时需要从扩大的范围里去查询进行补帧。
步骤S200,获取初始化Ghostnet神经网络,去掉Ghostnet分类层,将预选图片读入Ghostnet网络中生成图像特征,拼接后生成视频特征矩阵。
Ghost模块需要先使用常规卷积生成特征图,再通过线性运算生成多个幻影特征图,涉及到的公式有:
式(1)中,X为给定的输入数据,c是输入通道数,h和w分别为输入图片的高和宽;*代表卷积运算;生成n的特征值运算中,f是这一层的卷积核,b为偏差项;是具有n个通道的该卷积层输出特征图;式(2)中,y i ′是Y′中第i个原始特征图;Фi,j是第j个线性运算用于生成第j个幻影特征图y ij。
Ghostnet的瓶颈结构,每个Ghost瓶颈结构由两个Ghost模块组成,组成方式有两种,第一种是在两个Ghost模块间使用批量归一化层(BN)和线性整流函数(ReLU)连接,使用shortcut形式连接。第二种Ghost模块减少了通道数,同shortcut路径匹配,在第二个Ghost模块之后不再使用线性整流函数。完整的Ghostnet由一系列的Ghostnet的瓶颈结构和分类模块组成,在Ghostnet组成中逐步扩大其通道数。
具体的,首先需要预训练Ghostnet神经网络。有多种实施预训练的途径,本申请使用imageNet数据库进行训练。当模型收敛之后,将模型分类模块删除,包含了Ghostnet尾部的平均池化层,1x1卷积核的卷积层和全连接层。依次将图片候选集中的帧读入网络中,每次会生成一个960*1的特征向量,将图片候选集所生成的特征向量拼接起来生成特征矩阵。
需要说明的是,并不是只能使用图1中Ghostnet神经网络,根据具体情况可以选用其他的神经网络结构,其核心是要使用神经网络得到高质量的特征矩阵。
式中,cov表示协方差,E表示数学期望,n表示取值的数量。进一步的,Pearson相关系数的取值范围在[-1,1]之间,越接近1或者-1相关度越强,越接近0相关度越弱,在本申请中Pearson相关系数小于0.45为两帧无相关,相对应的图片在视频中被认为是场景切换。
继续参考图3,其示出了如何判断图片候选集中是否存在场景切换的技术路线S400。该用于保留当前场景所有的帧和剔除另一场景包含的帧,包括以下步骤:
步骤S401,得到特征矩阵和对应的Pearson相关系数。
在本示例中,需要用来识别场景切换的数据包括由Ghostnet生成的特征矩阵和对应的Pearson相关系数。
步骤S402,依次对图片候选集进行确认,当Pearson相关系数小于阈值时丢弃对应区域的图片。
具体来说,需要依次检测图片候选集中是否有Pearson相关系数小于阈值的值,如果有说明该图集包含了场景切换,则进入后续步骤。如果发生场景切换,需要找到当前帧和发生场景切换的帧的时序关系,以丢弃不属于当前检测场景的帧。若发生场景切换的帧是当前帧或是在当前帧之前,则丢弃不是当前帧的发生场景切换的帧和当前帧之前的所有帧;若发生场景切换的帧是在当前帧之后,则丢弃发生场景切换的帧和当前帧之后的所有帧。
步骤S403,生成新的图片候选集。
当丢弃帧之后,原本的帧不足以满足固定帧数,需要从未发生场景切换的帧中选择进行补齐。
进一步参考图4,其示出了对冗余图片的检测的技术路线S500。
步骤S501,获取新的图片候选集和对应的Pearson相关系数。
在本示例中,需要用来识别冗余图片的数据包括由Ghostnet生成的特征矩阵和对应的Pearson相关系数。
步骤S502,依次对图片候选集进行确认,当Pearson相关系数大于阈值时丢弃对应的图片。
需要依次检测图片候选集中是否有Pearson相关系数大于设定阈值的值,如果有说明系数对应的两帧极其相似,丢弃其中一帧。
步骤S503,根据图片候选集对当前帧的远近,进行重新排序。从前往后进行判定,当其对应Pearson相关系数大于权重公式,丢弃对应的帧。
阈值的判定是依据图片候选集中每张图片的位置到当前帧的距离来判定的,其判断公式如下:
当公式成立,则保留该帧,反之,则丢弃。其中pccs i为每帧对应的Pearson相关系数,S为设定的初始值,dis i为每帧同当前帧的距离,weight为设定的权重,n为图片候选集中帧的总数。
步骤S504,判定剩余候选帧的数量,当总数小于模型需要的帧数时,补齐帧。
当丢弃帧之后,现有的帧数不足以满足固定帧数,需要从未发生场景切换的帧中选择进行补齐。进一步地,上述步骤完成后生成了全新的图片候选集,其只包含了同一场景的图片且除去了同一场景中的冗余的图片,完成了对视频显著性检测任务图片的预处理工作,供后续深度学习模型使用。
参考图5和图6,图5是无场景切换的显著性检测图,图6是有场景切换的显著性检测图,分别比较原始模型和加入我们的图片预处理方法后的模型对视频显著性检测任务结果的影响。进一步地,参考表1:
表1
表格中示出了显著性检测方法在多种测量矩阵下的结果。其中测量矩阵包括:(1)归一化扫描路径显著性(NSS),(2)线性相关性(cross-corrlation),(3)相似性(similarity),(4)Judd曲线下面积(AUC-Judd),和(5)随机AUC(AUC-shuffled)。归一化扫描路径显著性和线性相关性估计预测图片和真实值之间的线性关系,相似性用于计算两个直方图之间的相似性,Judd曲线下面积和随机AUC是常用的计算方法。每项指标得分越高,说明显著性检测算法越准确。
与现有技术相比,本发明具有以下有益效果:(1)在不修改模型的情况下,提高深度学习模型的准确率;(2)提升用于视频任务的深度学习模型的鲁棒性,使模型适用于多种视频场景;(3)剔除与任务不相关的输入图片,使得深度学习模型更容易拟合;(4)方法易于使用和封装,适用于多种视频相关的深度学习任务。
最后所应说明的是:以上描述仅为本申请的较佳实施方案以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于技术特征的特定组合而成的技术方案,而不脱离本发明的精神和范围的任何修改或者局部替换,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.一种视频显著性检测任务中图片预处理的方法,其特征在于,该方法包括下列步骤:
1)获取图片候选集;
2)使用修改后Ghostnet神经网络获取图片候选集的视频特征矩阵;
3)根据视频特征矩阵,使用Pearson相关系数来得到相邻图片的线性相关性;
4)基于Pearson相关系数进行场景切换识别和冗余图片检测,生成新的图片候选集。
2.根据权利要求1所述的视频显著性检测任务中图片预处理的方法,其特征在于,步骤2)修改后的Ghostnet神经网络的训练首先要基于ImageNet,使得模型可以进行1000种类的分类任务,然后去掉Ghostnet的分类模块,包含了平均池化层,1x1卷积核的卷积层和全连接层,每张图片通过修改后的模型会生成一个960×1的特征矩阵,将图片候选集的特征矩阵拼接起来生成视频特征矩阵。
3.根据权利要求1所述的视频显著性检测任务中图片预处理的方法,其特征在于,步骤3)根据视频特征矩阵,使用Pearson相关系数来得到相邻图片的线性相关性,包括:通过Pearson相关系数的方法判定得到时序间帧的相关性,相关性的分类界限是Pearson相关系数在0~0.45为两帧无相关,0.45~0.75为两帧弱相关,0.75~0.98为两帧强相关,0.98~1为两帧高度相似。
4.根据权利要求1所述的视频显著性检测任务中图片预处理的方法,其特征在于,步骤4)基于Pearson相关系数进行场景切换识别和冗余图片检测,生成新的图片候选集的详细步骤包括:
4.1)提取当前帧的序号,当前帧是需要生成显著性检测结果的帧,扩大图片搜索范围,生成图片候选集;图片候选集帧的数量和Pearson相关系数个数有对应关系,如当前图片候选集共有n帧,则对应的Pearson相关系数共有n-1个;
4.2)若Pearson相关系数集合中的值都大于阈值,说明无场景切换,图片候选集不变,搜索结束;若有值小于阈值,则该值所对应的下一帧图片发生场景切换,进入下一步;
4.3)判断场景切换发生在当前帧之前或是之后,如果发生在当前帧之后,执行4.4);否则,跳转执行4.5);
4.4)丢弃场景切换的帧和其之后的所有帧,从未发生场景切换的帧进行补帧,直到满足需要的固定帧数,生成新的图片候选集;
4.5)判定当前帧是否发生场景切换,如果当前帧是场景切换的帧,丢弃当前帧之前的所有帧;否则,丢弃场景切换的帧和其之前的所有帧,生成新的图片候选集;若不满足固定帧数,从未发生场景切换的帧中进行补帧,生成新的不包含场景切换的图片候选集;
4.6)根据4.5生成的图片候选集,当图片候选集对应的Pearson相关系数高于阈值时,说明存在冗余图片则删去对应的帧,生成新的图片候选集;
4.7)图片候选集根据同当前帧的距离远近重新排序;
4.8)依次对图片候选集中的帧进行判断,如果不满足下列公式,则丢弃该帧:
4.9)如果图片候选集中剩余的帧数不满足固定帧数,从不存在冗余图片的帧中进行补帧,生成新的不包含冗余图片的图片候选集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110059470.5A CN112381076B (zh) | 2021-01-18 | 2021-01-18 | 一种视频显著性检测任务中图片预处理的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110059470.5A CN112381076B (zh) | 2021-01-18 | 2021-01-18 | 一种视频显著性检测任务中图片预处理的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381076A true CN112381076A (zh) | 2021-02-19 |
CN112381076B CN112381076B (zh) | 2021-03-23 |
Family
ID=74581959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110059470.5A Expired - Fee Related CN112381076B (zh) | 2021-01-18 | 2021-01-18 | 一种视频显著性检测任务中图片预处理的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381076B (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327359A (zh) * | 2013-06-14 | 2013-09-25 | 中国计量学院 | 一种应用于视频质量评价的视频显著性区域搜索方法 |
CN103793925A (zh) * | 2014-02-24 | 2014-05-14 | 北京工业大学 | 融合时空特征的视频图像视觉显著程度检测方法 |
CN104284241A (zh) * | 2014-09-22 | 2015-01-14 | 北京奇艺世纪科技有限公司 | 一种视频剪辑方法和装置 |
CN104424642A (zh) * | 2013-09-09 | 2015-03-18 | 华为软件技术有限公司 | 一种视频显著性区域检测方法及系统 |
CN104952083A (zh) * | 2015-06-26 | 2015-09-30 | 兰州理工大学 | 一种基于显著性目标背景建模的视频显著性检测算法 |
CN106526584A (zh) * | 2016-09-12 | 2017-03-22 | 西安电子科技大学 | 多雷达系统中目标检测跟踪联合处理方法 |
CN109118469A (zh) * | 2018-06-20 | 2019-01-01 | 国网浙江省电力有限公司 | 用于视频显著性的预测方法 |
CN109376611A (zh) * | 2018-09-27 | 2019-02-22 | 方玉明 | 一种基于3d卷积神经网络的视频显著性检测方法 |
CN109410171A (zh) * | 2018-09-14 | 2019-03-01 | 安徽三联学院 | 一种用于雨天图像的目标显著性检测方法 |
CN109978851A (zh) * | 2019-03-22 | 2019-07-05 | 北京航空航天大学 | 一种红外视频空中弱小运动目标检测跟踪方法 |
US20190373704A1 (en) * | 2016-10-13 | 2019-12-05 | Osram Gmbh | A method of identifying light sources and a corresponding system and product |
CN110599443A (zh) * | 2019-07-02 | 2019-12-20 | 山东工商学院 | 一种使用双向长短期记忆网络的视觉显著性检测方法 |
CN111340061A (zh) * | 2020-01-18 | 2020-06-26 | 中国人民解放军国防科技大学 | 基于svm模型参数优化的多模态数据融合和分类方法 |
CN112040222A (zh) * | 2020-08-07 | 2020-12-04 | 深圳大学 | 一种视觉显著性预测方法及设备 |
CN112036236A (zh) * | 2020-07-22 | 2020-12-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于GhostNet的检测模型的训练方法、设备及介质 |
CN112149459A (zh) * | 2019-06-27 | 2020-12-29 | 哈尔滨工业大学(深圳) | 一种基于交叉注意力机制的视频显著性物体检测模型及系统 |
-
2021
- 2021-01-18 CN CN202110059470.5A patent/CN112381076B/zh not_active Expired - Fee Related
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327359A (zh) * | 2013-06-14 | 2013-09-25 | 中国计量学院 | 一种应用于视频质量评价的视频显著性区域搜索方法 |
CN104424642A (zh) * | 2013-09-09 | 2015-03-18 | 华为软件技术有限公司 | 一种视频显著性区域检测方法及系统 |
CN103793925A (zh) * | 2014-02-24 | 2014-05-14 | 北京工业大学 | 融合时空特征的视频图像视觉显著程度检测方法 |
CN104284241A (zh) * | 2014-09-22 | 2015-01-14 | 北京奇艺世纪科技有限公司 | 一种视频剪辑方法和装置 |
CN104952083A (zh) * | 2015-06-26 | 2015-09-30 | 兰州理工大学 | 一种基于显著性目标背景建模的视频显著性检测算法 |
CN106526584A (zh) * | 2016-09-12 | 2017-03-22 | 西安电子科技大学 | 多雷达系统中目标检测跟踪联合处理方法 |
US20190373704A1 (en) * | 2016-10-13 | 2019-12-05 | Osram Gmbh | A method of identifying light sources and a corresponding system and product |
CN109118469A (zh) * | 2018-06-20 | 2019-01-01 | 国网浙江省电力有限公司 | 用于视频显著性的预测方法 |
CN109410171A (zh) * | 2018-09-14 | 2019-03-01 | 安徽三联学院 | 一种用于雨天图像的目标显著性检测方法 |
CN109376611A (zh) * | 2018-09-27 | 2019-02-22 | 方玉明 | 一种基于3d卷积神经网络的视频显著性检测方法 |
CN109978851A (zh) * | 2019-03-22 | 2019-07-05 | 北京航空航天大学 | 一种红外视频空中弱小运动目标检测跟踪方法 |
CN112149459A (zh) * | 2019-06-27 | 2020-12-29 | 哈尔滨工业大学(深圳) | 一种基于交叉注意力机制的视频显著性物体检测模型及系统 |
CN110599443A (zh) * | 2019-07-02 | 2019-12-20 | 山东工商学院 | 一种使用双向长短期记忆网络的视觉显著性检测方法 |
CN111340061A (zh) * | 2020-01-18 | 2020-06-26 | 中国人民解放军国防科技大学 | 基于svm模型参数优化的多模态数据融合和分类方法 |
CN112036236A (zh) * | 2020-07-22 | 2020-12-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于GhostNet的检测模型的训练方法、设备及介质 |
CN112040222A (zh) * | 2020-08-07 | 2020-12-04 | 深圳大学 | 一种视觉显著性预测方法及设备 |
Non-Patent Citations (2)
Title |
---|
KAI HAN等: ""GhostNet: More Features from Cheap Operations"", 《ARXIV》 * |
蒋凌: ""基于深度学习的视频显著性检测方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112381076B (zh) | 2021-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902806B (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
US8503792B2 (en) | Patch description and modeling for image subscene recognition | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN112818862A (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
KR102320985B1 (ko) | 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN108846404B (zh) | 一种基于相关约束图排序的图像显著性检测方法及装置 | |
CN109902576B (zh) | 一种头肩图像分类器的训练方法及应用 | |
CN112767478B (zh) | 一种基于表观指导的六自由度位姿估计方法 | |
JP2010165046A (ja) | 情報処理装置及び情報処理方法 | |
CN110909741A (zh) | 一种基于背景分割的车辆再识别方法 | |
CN111027377A (zh) | 一种双流神经网络时序动作定位方法 | |
US20070286492A1 (en) | Method of extracting object from digital image by using prior shape information and system executing the method | |
JP6448212B2 (ja) | 認識装置及び認識方法 | |
CN111126401A (zh) | 一种基于上下文信息的车牌字符识别方法 | |
CN110705566A (zh) | 一种基于空间金字塔池的多模态融合显著性检测方法 | |
CN113052008A (zh) | 一种车辆重识别方法及装置 | |
CN112132145A (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 | |
CN113269089A (zh) | 基于深度学习的实时手势识别方法及系统 | |
CN114529584A (zh) | 一种基于无人机航拍的单目标车辆跟踪方法 | |
CN111882581A (zh) | 一种深度特征关联的多目标跟踪方法 | |
CN111274964A (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN113361466A (zh) | 一种基于多模态交叉指导学习的多光谱目标检测方法 | |
CN112381076B (zh) | 一种视频显著性检测任务中图片预处理的方法 | |
CN112348762A (zh) | 一种基于多尺度融合生成对抗网络的单幅图像去雨方法 | |
CN114842512B (zh) | 基于多特征协同和语义感知的遮挡行人重识别和检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210323 Termination date: 20220118 |