CN113743357B - 视频表征自监督对比学习方法和装置 - Google Patents
视频表征自监督对比学习方法和装置 Download PDFInfo
- Publication number
- CN113743357B CN113743357B CN202111085396.0A CN202111085396A CN113743357B CN 113743357 B CN113743357 B CN 113743357B CN 202111085396 A CN202111085396 A CN 202111085396A CN 113743357 B CN113743357 B CN 113743357B
- Authority
- CN
- China
- Prior art keywords
- video
- motion
- map
- video clip
- clip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012512 characterization method Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000010586 diagram Methods 0.000 claims abstract description 63
- 230000003287 optical effect Effects 0.000 claims abstract description 41
- 230000006870 function Effects 0.000 claims description 38
- 238000009825 accumulation Methods 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 18
- 230000002123 temporal effect Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 239000012634 fragment Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 10
- 230000007786 learning performance Effects 0.000 abstract description 5
- 230000004044 response Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提出一种视频表征自监督对比学习方法和装置,涉及视频学习领域。该方法包括:根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图;根据所述视频片段的各视频帧相应的运动幅度图,确定所述视频片段相应的运动信息;根据视频片段序列和每个视频片段相应的运动信息,进行视频表征自监督对比学习。从而实现用于视频表征自监督学习的运动聚焦对比学习方案,使得视频中广泛存在且十分重要的运动信息在学习过程中被充分根据,从而提升视频表征自监督对比学习性能。
Description
技术领域
本公开涉及视频学习领域,特别涉及一种视频表征自监督对比学习方法和装置。
背景技术
视频表征自监督学习的目标是通过探索未经标注的视频中存在的内在属性来学习视频的特征表达。
一种视频表征自监督对比学习方法,其基于对比学习技术实现高效的自监督视频表征学习。然而,目前的视频表征自监督对比学习技术通常关注如何根据图像对比学习的研究成果提升对比学习性能。
发明内容
经研究发现,目前的视频表征自监督对比学习技术通常关注如何根据图像对比学习的研究成果提升对比学习性能,往往会忽视视频和图像之间存在的最关键的时间维度的差异,进而导致视频中广泛存在的运动信息没有得到充分的重视与根据,但是在实际场景中,视频的语义信息和运动信息是高度相关的。
本公开提出一种用于视频表征自监督学习的运动聚焦对比学习方案,使得视频中广泛存在且十分重要的运动信息在学习过程中被充分根据,从而提升视频表征自监督对比学习性能。
本公开一些实施例提出一种视频表征自监督对比学习方法,包括:
根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图;
根据所述视频片段的各视频帧相应的运动幅度图,确定所述视频片段相应的运动信息;
根据视频片段序列和每个视频片段相应的运动信息,进行视频表征自监督对比学习。
在一些实施例中,所述根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图,包括:
提取视频片段中每一对相邻视频帧之间的光流场,以确定所述视频片段的每个视频帧相应的光流场;
计算每个视频帧相应的光流场在第一方向和第二方向的梯度场;
将第一方向和第二方向的梯度场的幅值进行聚合得到每个视频帧相应的运动幅度图。
在一些实施例中,第一方向和第二方向相互垂直。
在一些实施例中,所述计算每个视频帧相应的光流场在第一方向和第二方向的梯度场包括:
计算每个视频帧相应的光流场的水平分量在第一方向和第二方向的梯度;
计算每个视频帧相应的光流场的垂直分量在第一方向和第二方向的梯度;
每个视频帧相应的光流场的水平分量和垂直分量在第一方向和第二方向的梯度,构成所述光流场在第一方向和第二方向的梯度场。
在一些实施例中,所述视频片段相应的运动信息包括:所述视频片段相应的时空运动图、空间运动图、时间运动图中的一项或多项;其中,
确定所述视频片段相应的时空运动图包括:在时间维度将视频片段的各视频帧的运动幅度图叠加构成所述视频片段的时空运动图;
确定所述视频片段相应的空间运动图包括:对所述视频片段的时空运动图沿着时间维度进行池化,得到所述视频片段的空间运动图;
确定所述视频片段相应的时间运动图包括:对所述视频片段的时空运动图沿着空间维度行池化,得到所述视频片段的时间运动图。
在一些实施例中,所述根据视频片段序列和每个视频片段相应的运动信息,进行视频表征自监督对比学习,包括:
根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合对比损失进行视频表征自监督对比学习;或者,
根据视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习;或者,
根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习;
其中,所述运动对齐损失通过对齐进行学习的主干网络的最后卷积层的输出与视频片段相应的运动信息来确定。
在一些实施例中,所述根据每个视频片段相应的运动信息对视频片段进行数据增强包括:
在视频片段相应的运动信息包括视频片段相应的时空运动图的情况下,根据时空运动图中各像素的运动速度的大小确定第一阈值,根据第一阈值确定视频片段中具备较大运动幅度的三维时空区域;或者,
在视频片段相应的运动信息包括视频片段相应的时间运动图的情况下,根据视频片段相应的时间运动图计算所述视频片段的运动幅度,对序列中的各视频片段进行时域采样,采样得到的视频片段的运动幅度不小于第二阈值,第二阈值根据各视频片段的运动幅度确定;或者,
在视频片段相应的运动信息包括视频片段相应的空间运动图的情况下,根据视频片段相应的空间运动图中各像素的运动速度的大小确定第三阈值,根据第三阈值对各像素进行划分,对空间运动图反复执行随机多尺度空间裁剪、并确保裁剪得到的矩形空间区域至少覆盖了超过预设比例的空间运动图中大于第三阈值的像素,对视频片段中的每一视频帧都裁剪与矩形空间区域相同的区域。
在一些实施例中,所述根据视频片段相应的时间运动图计算所述视频片段的运动幅度包括:
将视频片段相应的时间运动图作为视频帧级别的运动图,计算视频片段内所有帧的视频帧级别的运动图的均值,作为所述视频片段的运动幅度。
在一些实施例中,第一阈值、第二阈值、第三阈值分别采用中位数的方法确定。
在一些实施例中,所述对视频片段进行数据增强还包括:对视频片段中的视频帧进行图像数据增强操作。
在一些实施例中,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图在所有通道的累加与视频片段相应的时空运动图之间的距离,
所述累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
在一些实施例中,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图按照各通道的权重在所有通道的第一加权累加与视频片段相应的时空运动图之间的距离,
所述第一加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述第一加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
在一些实施例中,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图的各通道的梯度按照各通道的权重在所有通道的第二加权累加与视频片段相应的时空运动图之间的距离,
所述第二加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述第二加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
在一些实施例中,通道的权重的确定方法包括:计算视频片段相应的查询样本和正例样本之间的相似度相对于卷积层输出的特征图的某个通道的梯度,计算该通道的梯度的均值,作为该通道的权重。
在一些实施例中,所述对比损失根据对比学习的损失函数确定。
在一些实施例中,对比学习的损失函数包括InfoNCE损失函数。
在一些实施例中,所述主干网络包括三维卷积神经网络。
在一些实施例中,还包括:根据学习得到的视频表征模型,对待处理视频进行处理得到相应的视频特征。
本公开一些实施例提出一种视频表征自监督对比学习装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行所述视频表征自监督对比学习方法。
本公开一些实施例提出一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述视频表征自监督对比学习方法的步骤。
附图说明
下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍。根据下面参照附图的详细描述,可以更加清楚地理解本公开。
显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开一些实施例的运动聚焦的视频表征自监督对比学习方法的流程示意图。
图2a、2b、2c、2d示出本公开一些实施例的提取视频片段的运动信息以及基于运动信息的视频数据增强的示意图。
图3示出了本公开通过运动聚焦的视频数据增强和运动聚焦的特征学习两方面的结合同时进行视频表征自监督对比学习的示意图。
图4示出了本公开一些实施例的运动对齐损失函数的对齐示意图。
图5为本公开一些实施例的运动聚焦的视频表征自监督对比学习装置的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述。
除非特别说明,否则,本公开中的“第一”“第二”等描述用来区分不同的对象,并不用来表示大小或时序等含义。
本公开提出一种用于视频表征自监督学习的运动聚焦对比学习方案,使得视频中广泛存在且十分重要的运动信息在学习过程中被充分根据,从而提升视频表征自监督对比学习性能。
图1示出本公开一些实施例的运动聚焦的视频表征自监督对比学习方法的流程示意图。
如图1所示,该实施例的方法包括:步骤110-130。
在步骤110,根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图。
在视频中,不同区域的运动本质上是不同的。采用运动速度大小(即运动幅度)来衡量视频帧中各区域相对参考帧的位置变化率。一般来说,速度较大的区域具有更丰富的信息,并且更有利于对比学习。
在一些实施例中,本步骤110例如包括:步骤111-113。
在步骤111,提取视频片段中每一对相邻视频帧之间的光流场,以确定所述视频片段的每个视频帧相应的光流场。
针对拥有N帧的分辨率为H×W的视频片段(图2a,其中的视频图像仅是一种示例,本申请并不保护视频图像内容),根据无监督的TV-L1算法提取每一对相邻视频帧之间的光流场,以确定所述视频片段的每个视频帧相应的光流场,记作{(u1,v1),(u2,v2),…,(uN,vN)}。其中ui,vi分别是光流场在水平方向和竖直方向的分量,用于表示每个像素在i帧和i+1帧之间的位移,其分辨率均为H×W。
光流场,是指图像中所有像素点构成的一种二维瞬时速度场,其中的二维速度矢量是景物中可见点的三维速度矢量在成像表面的投影。
在步骤112,计算每个视频帧相应的光流场在第一方向和第二方向的梯度场。
在根据光流计算运动幅度的过程中,受到相机运动的影响,直接根据光流进行计算运动幅度很可能遭遇稳定性问题。例如,当相机快速运动时,原本静止的物体或者背景像素会在光流中呈现出很高的运动速度,这对于获得高质量的视频内容的运动信息不利。为了消除相机镜头抖动带来的不稳定问题,进一步计算光流场在第一方向和第二方向的梯度场作为运动边界。
在一些实施例中,计算每个视频帧相应的光流场在第一方向和第二方向的梯度场包括:计算每个视频帧相应的光流场的水平分量在第一方向和第二方向的梯度;计算每个视频帧相应的光流场的垂直分量在第一方向和第二方向的梯度;每个视频帧相应的光流场的水平分量和垂直分量在第一方向和第二方向的梯度,构成所述光流场在第一方向和第二方向的梯度场。在一些实施例中,第一方向和第二方向可相互垂直。例如,将坐标系中的相互垂直的x方向和y方向作为第一方向和第二方向。
计算每个视频帧相应的光流场在x方向和y方向的梯度信息作为运动边界。例如,对于第i帧的光流场(ui,vi),可以计算其在x方向和y方向的梯度场:
在步骤113,将第一方向和第二方向的梯度场的幅值进行聚合得到每个视频帧相应的运动幅度图。
基于上述梯度场可以进一步将各个方向的梯度场的幅值进行聚合得到第i帧的运动幅度图mi(图2b):
其中用于表征第i帧中每个像素的运动速度大小(即运动幅度),略去了运动的方向信息。正如图2b所示,本公开定义的运动幅度图没有受到相机运动的影响,对事实上的运动物体显示出高响应,高亮部分对应运动物体。
在步骤120,根据所述视频片段的各视频帧相应的运动幅度图,确定所述视频片段相应的运动信息。
所述视频片段相应的运动信息包括:所述视频片段相应的时空运动图(ST-motion)、空间运动图(/>S-motion)、时间运动图(T-motion)中的一项或多项。
确定所述视频片段相应的时空运动图包括:在时间维度将视频片段的各视频帧的运动幅度图叠加构成所述视频片段的时空运动图。例如,对于长度为N帧的视频片段,在时间维度将视频片段的各视频帧的运动幅度图mi叠加构成时空运动图mST。
确定所述视频片段相应的空间运动图包括:对所述视频片段的时空运动图沿着时间维度进行池化,得到所述视频片段的空间运动图。例如,对沿着时间维度进行池化,得到所述视频片段的空间运动图/>
确定所述视频片段相应的时间运动图包括:对所述视频片段的时空运动图沿着空间维度行池化,得到所述视频片段的时间运动图。例如,对沿着空间维度行池化,得到所述视频片段的时间运动图/>
在步骤130,根据视频片段序列和每个视频片段相应的运动信息,通过运动聚焦的视频数据增强、运动聚焦的特征学习这两方面的任一方面或者两方面的结合,进行视频表征自监督对比学习。提升在视频表征自监督对比学习任务中的表现。
图3示出了本公开通过运动聚焦的视频数据增强和运动聚焦的特征学习两方面的结合同时进行视频表征自监督对比学习的示意图。
其中,运动聚焦的视频数据增强(Motion-Focused Video Augmentation)能够根据预先计算得到的视频运动图(motion map)来产生具有丰富运动信息的三维管道作为骨干网络的输入。三维管道是指由采样自一系列连续视频帧的图像块在时间维度拼接在一起构成的视频样本。运动聚焦的视频数据增强可以分为两个部分:1)用于滤除画面相对静止的视频时间片段的时域采样(Temporal Sampling),和2)用于选取视频中具有较大运动速度的空间区域的空间域裁剪(Spatial Cropping)。由于视频语义与视频中运动信息的相关性,通过运动聚焦的视频数据增强,生成包含丰富运动信息的语义更相关的视频样本。
其中,运动聚焦的特征学习(Motion-Focused Feature Learning),通过本公开提出的新的运动对齐损失(Motion Alignment Loss)实现,通过在随机梯度下降的优化过程中对齐输入视频样本(三维管道)中每个位置对应的梯度幅度和运动图来促使骨干网络在特征学习过程中更多地关注视频中具备更高动态信息的区域。在对比学习损失(如InfoNCE损失)的基础上,运动对齐损失以额外约束条件的形式被集成入对比学习框架中。最终,整个运动聚焦对比学习框架以端到端的方式联合优化。所述主干网络包括三维卷积神经网络,例如三维resnet等,但不限于所举示例。主干网络后面还可以级联多层感知机(Multilayer Perceptron,MLP)等。通过运动聚焦的特征学习,使得学习过程中更多地聚焦于视频中的运动区域,进而使得学习到的视频特征包含充足的运动信息,更好地描述视频中的内容。
也即,本步骤130包括如下三种实现方式。
第一种,进行运动聚焦的视频数据增强:根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合对比损失进行视频表征自监督对比学习,也即,针对增强后的视频片段序列,利用对比损失进行视频表征自监督对比学习。
第二种,进行运动聚焦的特征学习:根据视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习,也即,针对视频片段序列,利用运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习。
第三种,同时进行运动聚焦的视频数据和运动聚焦的特征学习:根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习,也即,针对增强后的视频片段序列,利用运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习。
其中,所述运动对齐损失通过对齐进行学习的主干网络的最后卷积层的输出与视频片段相应的运动信息来确定。其中,所述对比损失根据对比学习的损失函数确定。对比学习的损失函数例如包括InfoNCE损失函数等,但不限于所举示例。后面会具体描述运动对齐损失和对比损失。
下面描述运动聚焦的视频数据增强。
基于前述的视频片段的各种运动图,运动聚焦的视频数据增强可以更好地关注视频中运动较大的区域。通过为对比学习算法选取更好的数据视图,提升模型学习到的视频表征的泛化能力。这是因为基于对比学习的自监督学习方法往往能够较好地收益于数据视图之间的互信息(MI,Mutual Information),而为了提高模型针对下游任务的泛化能力,“好”视图应该包含尽可能多的与下游任务相关信息,同时尽可能多地丢弃输入中的不相关信息。鉴于绝大多数视频相关的下游任务中都需要视频中的运动信息,例如,图2c中矩形框标示出了包含了较大运动幅度的两个视频区域样本,运动中的马和骑手包含了更有价值的互信息,图2d中矩形框标示出了从视频中静态区域采样得到的两个样本,包含灌木丛与地面等相对来说不太重要的背景信息,图2c中的样本更有助于提升模型对比学习的效果。本公开根据无需人工标注即可获得的运动图来寻找包含更多运动信息的视频时空区域。
在一些实施例中,所述根据每个视频片段相应的运动信息对视频片段进行数据增强包括以下至少三种实现方式。
第一种,在视频片段相应的运动信息包括视频片段相应的时空运动图的情况下,根据时空运动图中各像素的运动速度的大小确定第一阈值,第一阈值可采用中位数的方法确定,例如,将时空运动图中各像素的运动速度大小的中位数确定为第一阈值,然后,根据第一阈值确定视频片段中具备较大运动幅度的三维时空区域,例如,三维时空区域至少覆盖了超过预设比例(如80%)的时空运动图中大于第一阈值的像素。
从而,通过时空运动图直接获得视频中具备较大运动的三维时空区域。
第二种,在视频片段相应的运动信息包括视频片段相应的时间运动图的情况下,根据视频片段相应的时间运动图计算所述视频片段的运动幅度,例如,将视频片段相应的时间运动图作为视频帧级别的运动图,计算视频片段内所有帧的视频帧级别的运动图的均值,作为所述视频片段的运动幅度,然后对视频片段序列中的各视频片段进行时域采样,采样得到的视频片段的运动幅度不小于第二阈值,运动幅度小于第二阈值的视频片段可不被采样。第二阈值根据各视频片段的运动幅度确定,例如,将各视频片段的运动幅度的中位数作为第二阈值。
从而,通过基于时间运动图的时域采样,可提取视频片段序列中具备较大运动的视频片段。
第三种,在视频片段相应的运动信息包括视频片段相应的空间运动图的情况下,根据视频片段相应的空间运动图中各像素的运动速度的大小确定第三阈值,根据第三阈值对各像素进行划分,对空间运动图反复执行随机多尺度空间裁剪、并确保裁剪得到的矩形空间区域至少覆盖了超过预设比例的空间运动图中大于第三阈值的像素,对视频片段中的每一视频帧都裁剪与矩形空间区域相同的区域。
从而,通过基于空间运动图的空间裁剪,可获得视频片段中具备较大运动的三维时空区域。
上述的第二种和第三种还可以结合起来使用。也即,在运动图的引导下,运动聚焦的视频增强依次通过时域采样和空间裁剪两个步骤对原始视频数据进行采样。由于在时域采样可过滤到一半的候选视频片段,减少空间裁剪的处理对象,提升视频数据增强的效率。
在运动聚焦的视频数据增强之后,对视频片段中的视频帧进行图像数据增强操作,如颜色抖动、随机灰度、随机模糊和随机镜像等。从而,保持传统视频数据增强方法中存在的随机性。
下面描述运动聚焦的特征学习。
利用从视频中提取得到的运动图作为模型特征学习的监督信号,进一步地引导模型的对比学习过程,如前所述,结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习。也即,运动聚焦的视频表征自监督对比学习的损失函数其中,/>表示运动对齐损失函数,例如为候选描述的或/>表示对比损失函数,例如为InfoNCE。
常规的对比学习,给定一个经过编码器编码的查询样本一组包含了一个正例样本键值/>和K个负例样本键值/>的经过编码器编码的键值向量。其中查询样本和正例样本通常是对同一个数据实例(图像、视频等)进行不同数据增强后得到的样本,而负例样本则是采样自其它不同数据实例的样本。在对比学习中的实例判别任务的目标是引导查询样本q与正例样本k+之间在特征空间中更加相似,同时保证查询样本q与其它负例样本/>之间存在足够的区分度。通常对比学习会采用InfoNCE作为其损失函数:
其中,τ是预设的超参数。
对比学习的损失函数是在编码后的视频样本(三维管道)级别上执行对比学习,在这个过程中三维管道中的每个时间-空间位置都被平等地看待。鉴于视频中的语义信息更多地集中在运动较为剧烈的区域,为了帮助模型在训练过程中更多地聚焦于视频中运动区域,更好地发掘视频中的运动信息,本公开提出了一种新的运动对齐损失(MAL,MotionAlignment Loss)来对齐主干网络卷积层的输出和视频样本的运动图中的运动幅度,并作为InfoNCE之外的监督信号作用与模型的优化过程,进而使学习到的视频特征表达能够更好地描述视频中的运动信息。
下面描述三种运动对齐损失相应的损失函数,简称运动对齐损失函数。
第一种运动对齐损失函数,对齐特征图,也即对齐主干网络最后的卷积层输出的特征图的幅度与运动图,从而使得主干网络输出的卷积层的特征图在运动较大的区域有着更大的响应。
第一种运动对齐损失函数表示为以下的一项或多项的累加:主干网络的最后卷积层输出的特征图在所有通道的累加与视频片段相应的时空运动图之间的距离,所述累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,所述累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
当包括以上三项时,第一种运动对齐损失函数表示为:
其中,hST=<∑chc>,hc表示卷积层输出的特征图的第c个通道的响应幅度,∑chc表示卷积层输出的特征图在所有通道的响应幅度的累加,hST沿着时间维度的池化结果表示为hS,hST沿着空间维度的池化结果表示为hT,mST表示时空运动图,mS表示空间运动图,mT表示时间运动图。
第二种运动对齐损失函数,对齐加权特征图,即对齐主干网络的最后卷积层输出的特征图按照各通道的权重在所有通道的加权累加与运动图。
考虑到特征图相应的梯度幅值能够更好地衡量特征图中每个位置的特征对模型推理结果,即对比学习损失函数InfoNCE的贡献,故可以采用梯度幅值对特征图响应进行加权。各通道的权重的确定方法包括:计算视频片段相应的查询样本和正例样本之间的相似度相对于卷积层输出的特征图的某个通道的梯度,计算该通道的梯度的均值,作为该通道的权重。具体而言,根据InfoNCE损失函数的形式,首先需要计算查询样本和正例样本之间相似度qTk+相对于卷积层输出的特征图的某个通道的梯度然后对于每个通道c,计算梯度gc的均值wc用于表示通道c的权重,最后利用各通道的权重对特征图进行通道维度的加权。
第二种运动对齐损失函数表示为以下的一项或多项的累加:主干网络的最后卷积层输出的特征图按照各通道的权重在所有通道的第一加权累加与视频片段相应的时空运动图之间的距离,所述第一加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,所述第一加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
当包括以上三项时,第二种运动对齐损失函数表示为:
其中,hc表示卷积层输出的特征图的第c个通道的响应幅度,wc表示第c个通道的权重,ReLU表示线性整流函数(Rectified Linear Unit),沿着时间维度的池化结果表示为/> 沿着空间维度的池化结果表示为/>mST表示时空运动图,mS表示空间运动图,mT表示时间运动图。
第三种运动对齐损失函数,对齐加权梯度图,即对齐主干网络的最后卷积层输出的特征图的各通道的梯度按照各通道的权重在所有通道的加权累加与运动图,如图4所示。
第三种运动对齐损失函数表示为以下的一项或多项的累加:主干网络的最后卷积层输出的特征图的各通道的梯度按照各通道的权重在所有通道的第二加权累加与视频片段相应的时空运动图之间的距离,所述第二加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,所述第二加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。其中,各通道的权重的计算方法参见前述。
当包括以上三项时,第三种运动对齐损失函数表示为:
其中, 沿着时间维度的池化结果表示为/> 沿着空间维度的池化结果表示为/> 表示时空运动图,mS表示空间运动图,mT表示时间运动图,wc、gc的含义参考前述。
通过上述各实施例,学习得到视频表征模型,根据学习得到的视频表征模型,对待处理视频进行处理得到相应的视频特征。
图5为本公开一些实施例的运动聚焦的视频表征自监督对比学习装置的结构示意图。
如图5所示,该实施例的装置500包括:存储器510以及耦接至该存储器510的处理器520,处理器520被配置为基于存储在存储器510中的指令,执行前述任意一些实施例中的运动聚焦的视频表征自监督对比学习方法。
其中,存储器510例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)以及其他程序等。
装置500还可以包括输入输出接口530、网络接口540、存储接口550等。这些接口530,540,550以及存储器510和处理器520之间例如可以通过总线560连接。其中,输入输出接口530为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口540为各种联网设备提供连接接口。存储接口550为SD卡、U盘等外置存储设备提供连接接口。
本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机程序代码的非瞬时性计算机可读存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (19)
1.一种视频表征自监督对比学习方法,其特征在于,包括:
根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图;
根据所述视频片段的各视频帧相应的运动幅度图,确定所述视频片段相应的运动信息,所述视频片段相应的运动信息包括:所述视频片段相应的时空运动图、空间运动图、时间运动图中的一项或多项;其中,确定所述视频片段相应的时空运动图包括:在时间维度将视频片段的各视频帧的运动幅度图叠加构成所述视频片段的时空运动图;确定所述视频片段相应的空间运动图包括:对所述视频片段的时空运动图沿着时间维度进行池化,得到所述视频片段的空间运动图;确定所述视频片段相应的时间运动图包括:对所述视频片段的时空运动图沿着空间维度行池化,得到所述视频片段的时间运动图;
根据视频片段序列和每个视频片段相应的运动信息,进行视频表征自监督对比学习。
2.根据权利要求1所述的方法,其特征在于,所述根据视频片段的每个视频帧相应的光流信息,计算得到所述视频片段的每个视频帧相应的运动幅度图,包括:
提取视频片段中每一对相邻视频帧之间的光流场,以确定所述视频片段的每个视频帧相应的光流场;
计算每个视频帧相应的光流场在第一方向和第二方向的梯度场;
将第一方向和第二方向的梯度场的幅值进行聚合得到每个视频帧相应的运动幅度图。
3.根据权利要求2所述的方法,其特征在于,第一方向和第二方向相互垂直。
4.根据权利要求2所述的方法,其特征在于,所述计算每个视频帧相应的光流场在第一方向和第二方向的梯度场包括:
计算每个视频帧相应的光流场的水平分量在第一方向和第二方向的梯度;
计算每个视频帧相应的光流场的垂直分量在第一方向和第二方向的梯度;
每个视频帧相应的光流场的水平分量和垂直分量在第一方向和第二方向的梯度,构成所述光流场在第一方向和第二方向的梯度场。
5.根据权利要求1所述的方法,其特征在于,所述根据视频片段序列和每个视频片段相应的运动信息,进行视频表征自监督对比学习,包括:
根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合对比损失进行视频表征自监督对比学习;或者,
根据视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习;或者,
根据每个视频片段相应的运动信息对视频片段进行数据增强,根据增强后的视频片段序列并结合运动对齐损失和对比损失进行运动聚焦的视频表征自监督对比学习;
其中,所述运动对齐损失通过对齐进行学习的主干网络的最后卷积层的输出与视频片段相应的运动信息来确定。
6.根据权利要求5所述的方法,其特征在于,所述根据每个视频片段相应的运动信息对视频片段进行数据增强包括:
在视频片段相应的运动信息包括视频片段相应的时空运动图的情况下,根据时空运动图中各像素的运动速度的大小确定第一阈值,根据第一阈值确定视频片段中具备较大运动幅度的三维时空区域;或者,
在视频片段相应的运动信息包括视频片段相应的时间运动图的情况下,根据视频片段相应的时间运动图计算所述视频片段的运动幅度,对序列中的各视频片段进行时域采样,采样得到的视频片段的运动幅度不小于第二阈值,第二阈值根据各视频片段的运动幅度确定;或者,
在视频片段相应的运动信息包括视频片段相应的空间运动图的情况下,根据视频片段相应的空间运动图中各像素的运动速度的大小确定第三阈值,根据第三阈值对各像素进行划分,对空间运动图反复执行随机多尺度空间裁剪、并确保裁剪得到的矩形空间区域至少覆盖了超过预设比例的空间运动图中大于第三阈值的像素,对视频片段中的每一视频帧都裁剪与矩形空间区域相同的区域。
7.根据权利要求6所述的方法,其特征在于,所述根据视频片段相应的时间运动图计算所述视频片段的运动幅度包括:
将视频片段相应的时间运动图作为视频帧级别的运动图,计算视频片段内所有帧的视频帧级别的运动图的均值,作为所述视频片段的运动幅度。
8.根据权利要求6所述的方法,其特征在于,第一阈值、第二阈值、第三阈值分别采用中位数的方法确定。
9.根据权利要求6所述的方法,其特征在于,所述对视频片段进行数据增强还包括:
对视频片段中的视频帧进行图像数据增强操作。
10.根据权利要求5所述的方法,其特征在于,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图在所有通道的累加与视频片段相应的时空运动图之间的距离,
所述累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
11.根据权利要求5所述的方法,其特征在于,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图按照各通道的权重在所有通道的第一加权累加与视频片段相应的时空运动图之间的距离,
所述第一加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述第一加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
12.根据权利要求5所述的方法,其特征在于,所述运动对齐损失相应的损失函数表示为以下的一项或多项的累加:
主干网络的最后卷积层输出的特征图的各通道的梯度按照各通道的权重在所有通道的第二加权累加与视频片段相应的时空运动图之间的距离,
所述第二加权累加沿着时间维度的池化结果与视频片段相应的空间运动图之间的距离,
所述第二加权累加沿着空间维度的池化结果与视频片段相应的时间运动图之间的距离。
13.根据权利要求11或12所述的方法,其特征在于,通道的权重的确定方法包括:
计算视频片段相应的查询样本和正例样本之间的相似度相对于卷积层输出的特征图的某个通道的梯度,计算该通道的梯度的均值,作为该通道的权重。
14.根据权利要求5所述的方法,其特征在于,所述对比损失根据对比学习的损失函数确定。
15.根据权利要求14所述的方法,其特征在于,对比学习的损失函数包括InfoNCE损失函数。
16.根据权利要求5所述的方法,其特征在于,所述主干网络包括三维卷积神经网络。
17.根据权利要求1所述的方法,其特征在于,还包括:
根据学习得到的视频表征模型,对待处理视频进行处理得到相应的视频特征。
18.一种视频表征自监督对比学习装置,包括:
存储器;以及
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行权利要求1-17中任一项所述的视频表征自监督对比学习方法。
19.一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1-17中任一项所述的视频表征自监督对比学习方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085396.0A CN113743357B (zh) | 2021-09-16 | 2021-09-16 | 视频表征自监督对比学习方法和装置 |
PCT/CN2022/091369 WO2023040298A1 (zh) | 2021-09-16 | 2022-05-07 | 视频表征自监督对比学习方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085396.0A CN113743357B (zh) | 2021-09-16 | 2021-09-16 | 视频表征自监督对比学习方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113743357A CN113743357A (zh) | 2021-12-03 |
CN113743357B true CN113743357B (zh) | 2023-12-05 |
Family
ID=78739257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111085396.0A Active CN113743357B (zh) | 2021-09-16 | 2021-09-16 | 视频表征自监督对比学习方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113743357B (zh) |
WO (1) | WO2023040298A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743357B (zh) * | 2021-09-16 | 2023-12-05 | 京东科技信息技术有限公司 | 视频表征自监督对比学习方法和装置 |
CN116758562B (zh) * | 2023-08-22 | 2023-12-08 | 杭州实在智能科技有限公司 | 通用文本验证码识别方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473533A (zh) * | 2013-09-10 | 2013-12-25 | 上海大学 | 视频运动对象异常行为自动检测方法 |
CN103617425A (zh) * | 2013-12-11 | 2014-03-05 | 西安邮电大学 | 用于监测极光活动的变化轨迹的生成方法 |
CN106709933A (zh) * | 2016-11-17 | 2017-05-24 | 南京邮电大学 | 一种基于非监督学习的运动估计方法 |
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN110809155A (zh) * | 2018-08-04 | 2020-02-18 | 北京字节跳动网络技术有限公司 | 使用更新的运动信息的限制 |
CN111126170A (zh) * | 2019-12-03 | 2020-05-08 | 广东工业大学 | 一种基于目标检测与追踪的视频动态物检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8335350B2 (en) * | 2011-02-24 | 2012-12-18 | Eastman Kodak Company | Extracting motion information from digital video sequences |
US20190228313A1 (en) * | 2018-01-23 | 2019-07-25 | Insurance Services Office, Inc. | Computer Vision Systems and Methods for Unsupervised Representation Learning by Sorting Sequences |
US11062460B2 (en) * | 2019-02-13 | 2021-07-13 | Adobe Inc. | Representation learning using joint semantic vectors |
CN112507990A (zh) * | 2021-02-04 | 2021-03-16 | 北京明略软件系统有限公司 | 视频时空特征学习、抽取方法、装置、设备及存储介质 |
CN113743357B (zh) * | 2021-09-16 | 2023-12-05 | 京东科技信息技术有限公司 | 视频表征自监督对比学习方法和装置 |
-
2021
- 2021-09-16 CN CN202111085396.0A patent/CN113743357B/zh active Active
-
2022
- 2022-05-07 WO PCT/CN2022/091369 patent/WO2023040298A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473533A (zh) * | 2013-09-10 | 2013-12-25 | 上海大学 | 视频运动对象异常行为自动检测方法 |
CN103617425A (zh) * | 2013-12-11 | 2014-03-05 | 西安邮电大学 | 用于监测极光活动的变化轨迹的生成方法 |
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN106709933A (zh) * | 2016-11-17 | 2017-05-24 | 南京邮电大学 | 一种基于非监督学习的运动估计方法 |
CN110809155A (zh) * | 2018-08-04 | 2020-02-18 | 北京字节跳动网络技术有限公司 | 使用更新的运动信息的限制 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN111126170A (zh) * | 2019-12-03 | 2020-05-08 | 广东工业大学 | 一种基于目标检测与追踪的视频动态物检测方法 |
Non-Patent Citations (2)
Title |
---|
Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion;Jinpeng Wang et al;arXiv:2009.05757v1;第4-5页 * |
Self-supervised Video Representation Learning Using Inter-intra Contrastive Framework;Li Tao et al;arXiv:2008.02531v2;第5页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2023040298A1 (zh) | 2023-03-23 |
CN113743357A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mullapudi et al. | Online model distillation for efficient video inference | |
Yang et al. | Real-time object detection for streaming perception | |
CN113743357B (zh) | 视频表征自监督对比学习方法和装置 | |
Lee et al. | SNIDER: Single noisy image denoising and rectification for improving license plate recognition | |
US9224211B2 (en) | Method and system for motion detection in an image | |
CN112561951B (zh) | 一种基于帧差绝对误差和sad的运动和亮度检测方法 | |
EP3175388A2 (en) | Computerized prominent person recognition in videos | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
US12106541B2 (en) | Systems and methods for contrastive pretraining with video tracking supervision | |
Zhang et al. | Rethinking the defocus blur detection problem and a real-time deep DBD model | |
KR101202642B1 (ko) | 배경의 특징점을 이용한 전역 움직임 추정 방법 및 장치 | |
CN113658231B (zh) | 光流预测方法、装置、电子设备及存储介质 | |
Moreno-Garcia et al. | Video sequence motion tracking by fuzzification techniques | |
CN117561540A (zh) | 使用帧序列执行计算机视觉任务的系统和方法 | |
Patro | Design and implementation of novel image segmentation and BLOB detection algorithm for real-time video surveillance using DaVinci processor | |
Chae et al. | Siamevent: Event-based object tracking via edge-aware similarity learning with siamese networks | |
Xia et al. | A novel method for generation of motion saliency | |
CN113497889B (zh) | 一种运动拍摄条件下的物体跟踪方法、装置及存储介质 | |
CN112991419A (zh) | 视差数据生成方法、装置、计算机设备及存储介质 | |
Jain et al. | Discriminability limits in spatio-temporal stereo block matching | |
CN103268606B (zh) | 一种运动模糊图像的深度信息补偿方法和装置 | |
Ranganarayana et al. | Modified ant colony optimization for human recognition in videos of low resolution | |
Lee et al. | Robust Camera Motion Estimation for Point-of-View Video Stabilization | |
CN111539988B (zh) | 一种视觉里程计实现方法、装置和电子设备 | |
CN117953015B (zh) | 基于视频超分辨率多行人跟踪方法、系统、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |