CN110111366B - 一种基于多级损失量的端到端光流估计方法 - Google Patents
一种基于多级损失量的端到端光流估计方法 Download PDFInfo
- Publication number
- CN110111366B CN110111366B CN201910371605.4A CN201910371605A CN110111366B CN 110111366 B CN110111366 B CN 110111366B CN 201910371605 A CN201910371605 A CN 201910371605A CN 110111366 B CN110111366 B CN 110111366B
- Authority
- CN
- China
- Prior art keywords
- optical flow
- convolution
- scale
- network
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多级损失量的端到端光流估计方法,将两张相邻图像送入相同的特征提取卷积神经网络进行特征提取,获得两帧图像的多尺度的特征图;在每一个尺度下,对两幅图像特征图进行相关性分析操作,从而获得多尺度的损失量信息;将同一尺度下获取的损失量信息、第一帧图像在该尺度下的特征图、上一级预测得到光流信息合并在一起,送入光流预测卷积神经网络中,获取该尺度下的残差流,并与上一级光流信息的上采样结果相加得到该尺度的光流信息;将第二级尺度的光流信息与输入的两帧图像进行特征融合操作,将融合后的信息送入到运动边缘优化网络得到最终的光流预测结果。使用本发明能够提升光流估计算法精度与效率。
Description
技术领域
本发明涉及计算机视觉中的光流估计领域,特别涉及端到端光流估计,具体为一种基于多级损失量的端到端光流估计方法。
背景技术
光流表征着图像亮度模式的表观运动,这种运动通常由观测者和场景的相对运动引起。光流估计是计算机视觉领域中经典的研究课题之一,作为一种低级别的视觉任务,光流在高级别视觉任务,如视频动作识别、视频目标检测及跟踪等,有着广泛的使用;此外,一个高性能的光流估计算法对于基于光流的应用,如视频编辑、机器人导航等有着重要意义。
光流场是运动场在二维空间上的投影,是运动的低级别表示。光流算法的目的是解算出给定的若干帧图像间(通常是两帧)各个像素移动的距离。光流估计需要精确的逐像素定位,同时需要找到两张图输入图像的对应关系。这就涉及到图像特征表达的学习,以及学习在两个图像上的不同位置匹配这些特征表达。主流光流估计算法作如下分类:一是传统的非深度学习算法;二是基于深度学习的光流估计算法。非深度学习方法大部分做法是首先将光流计算问题构建为一个优化问题,即求解最小化能量函数,通常使用变分法进行求解。基于非深度学习的光流估计算法需要人工精心设计有效的能量函数,要得到稠密光流需要大量运行时间,此外,这类方法多研究限制条件下小位移光流的预测,限制了该类算法的应用场景。基于深度学习的光流估计算法利用深度CNN提取输入图像的从低级到高级的特征,然后基于深度特征使用传统算法进行光流求解。目前,领先的光流算法通常使用基于双目视觉的研究方法,这样的方法尽管取得了较高的精度,但是其运算速度往往长达数分钟,严重限制了其在实时性应用上的使用。近年来,由于深度学习在计算机视觉领域的领先地位,卷积神经网络(CNN)也开始被引入到光流估计算法之中。在这些方法中,绝大部分是首先使用CNN提取图像高级语义信息,然后使用传统的基于区域匹配的方法进行光流估计,然而这些方法往往又需要复杂的后处理,占据了大量的运行时间,不满足视频检测、追踪等任务的速度需求。因此设计一种高效率、高精度的基于CNN的端到端光流估计网络显得至关重要。
发明内容
有鉴于此,本发明提供了一种基于多级损失量的端到端光流估计方法,能够提升光流估计算法精度与效率。
为了解决上述技术问题,本发明是这样实现的:
一种基于多级损失量的端到端光流估计方法,包括:
步骤一:将两张相邻图像I1和I2,送入相同的特征提取卷积神经网络进行特征提取,获得两帧图像的多尺度的特征图fi 1和fi 2;
步骤二:在每一个尺度i下,对图像I1和I2的特征图进行相关性分析操作,获得该尺度i下的损失量信息cvi,从而获得多尺度的损失量信息;
步骤三:针对每一个尺度i,将尺度i下获取的损失量信息cvi、第一帧图像I1在该尺度下的特征图fi 1、上一级预测得到光流信息Vi+1合并在一起,送入光流预测卷积神经网络Gi中,获取该尺度下的残差流vi,将残差流vi与上一级光流信息的上采样结果相加得到该尺度的光流信息Vi;
步骤四:将第二级尺度的光流信息V2与输入的两帧图像I1和I2进行特征融合操作,将融合后的信息送入到运动边缘优化网络得到最终的光流预测结果。
优选地,所述特征提取卷积神经网络包括6个模块;每个模块由两个卷积层构成,两个卷积层具有相同的宽度,且卷积核大小设置为3,每个卷积层后面使用leaky-Relu作为激活函数;特征提取卷积神经网络中采样步长代替池化层,第一层卷积使用步长为2,第二层卷积使用步长为1;第一级模块到第六级模块的卷积层通道数分别设置为{16,32,64,96,128,192}。
优选地,所述相关性分析操作为:对于特征图fi 1中的某个像素点x1,以逐像素的形式与特征图fi 2中以x2为中心、面积为[2k+1]2的正方形区域进行相乘操作,得到[2k+1]2个乘积结果后以通道的形式堆叠起来,即为损失量信息cvi;其中,k为设定的区域边长,尺度越低,采用的k值越大。
优选地,不同尺度的k值不同,所述特征提取卷积神经网络中第2~第6个模块尺度下的特征图分别使用k=[14,10,8,6,4]。
优选地,所述上采样操作采用双线性插值获得。
优选地,所述光流预测卷积神经网络Gi包括6个卷积层,没有步长和池化层;每个卷积核的大小设置为3×3,且每个卷积层后面使用leaky-Relu作为非线性激活层;各个卷积层的通道数设置为{128,128,96,64,32,2}。
优选地,所述运动边缘优化网络包括特征提取子网络和ASPP模块;
特征提取子网络共含有5个模块,使用步长代替池化操作,除了第一个模块仅使用一个卷积核大小为7×7的卷积层外,其余每个模块都含有两个通道数相同且卷积核大小为3×3的卷积层,每个卷积层后面使用leaky-Relu作为非线性激活函数,各个模块的通道数分别设置为[64,64,128,256,512];5个模块均使用空洞率为2的空洞卷积;
ASPP模块包括5个模块,前四个均为卷积核大小为3×3的卷积层,不同卷积层的空洞率分别设置为[1,4,8,12];特征提取子网络的输出并行进入这4个模块进行处理,输出的特征进入一个卷积核大小为3、通道数为64、步长为0的卷积层中进行特征的特征融合操作;
输入的光流信息与两帧图像的合并结果经特征提取子网络和ASPP模块的处理后,使用一个卷积核为3、通道数为2、步长为0的卷积层预测光流的值,并进行上采样,得到上采样的编码特征图;
将特征提取子网络中第二个卷积层得到的特征图进行还原操作,即使用卷积核大小为1、通道数为8的卷积进行卷积操作;之后将还原得到的特征图与上采样的编码特征图进行合并,将合并结果经过两层卷积核大小为3、通道数为64的卷积层进行特征融合,最后经过一个卷积核大小为3、通道数为2的卷积层预测得到最后的光流结果。
优选地,对步骤一至步骤四的操作所构成的多级损失量的端到端光流估计网络进行训练时,所采用的L2损失函数L为:
其中,Vi(θ,x)为预测得到的光流结果,即光流矩阵,x为光流矩阵的每个元素,θ为本端光流估计方法中所使用的所有神经网络的参数,为作为样本训练标签的光流实际值,即样本训练标签,α为设定的较小正数,γ为正则系数,|·|2表示L2范数,λ为正则项系数,需要在训练中根据训练数据调整。
有益效果:
(1)在当前的主流的基于双目视觉的光流估计算法运算速度受限的情况下,本发明提出一种基于多级损失量的端到端光流估计方法,本发明利用了基于卷积神经网络的光流估计算法,在光流估计中利用了多级的特征图计算得到的光流损失量,可以提升光流估计的准确性。
同时,在利用损失量计算光流信息时,利用后一级的光流估计结果作为输入成分,通过构造一个从上到下的反向过程将下一级的光流输出结果作为上一级的光流估计的输入,在对光流信息预测时,不直接预测该级下的光流信息,而是预测得到光流残差信息,使得光流估计网络更易于收敛。
其次,在进行最终光流估计时,利用运动边缘优化网络提升目标位置信息估计的精确性。
此外,由于基于卷积神经网络的端到端光流估计算法在实际使用中只需要运行前向网络,因此具有高效率的特点。
(2)本发明的特征提取网络没有使用更深和更厚的特征图,而是在保证特征图提取的语义信息足够丰富的情况下,使用层数尽可能少,只有6层卷积层,进而保证光流估计具有较高的估计效率,这是光流预测中的一个重要指标。同时为了减少计算量,特征提取网络的所有的卷积核大小设置为3。在特征提取网络中没有使用池化层,因为考虑到池化层的简单的最大化或者平均策略会导致信息的丢失。本发明使用卷积中的步长代替池化操作,第一层卷积使用步长为2,第二层卷积使用步长为1,因此每经过一个模块,特征图的尺度降低为原来的即最高层特征图的尺度为原图的在使用步长代替池化的过程中,保留了特征图的信息,同时获得了多尺度特征图。
(3)本发明对现有的相关性分析操作进行了相应的改进。原始的相关性分析是对特征图上的每一块区域内进行卷积操作来计算特征图的区域间相关性,本发明将特征图上的块操作改进为对特征图上的每个元素进行卷积操作,获取特征图间的相关性。改进的相关性分析保证分析过程覆盖到所有的像素点而没有遗漏,从而提高了损失量信息计算的准确度,进而提升了光流预测的精度。
(4)本发明在进行光流预测时,利用了多级尺度特征图,对多级尺度的特征图得到的多级损失量进行预测进而得到每级尺度下的光流预测结果。同时将上一级得到的光流信息进行上采样作为下一级的光流残差流预测网络的输入,使得光流预测网络更易收敛,提升预测精度。同时每级尺度下的光流预测网络不使用池化层,步长设置为0。光流残差流预测网络没有直接预测每个尺度下的光流值,而是训练网络预测上级光流相对于本级光流标签的残差值,进而提升光流预测的准确率。
(5)本发明针对光流预测过程中的稠密预测与预测边缘模糊问题,使用了运动边缘优化网络对光流运动边缘进行修复。考虑光流任务对效率的较高要求,运动边缘优化网络的特征提取网络共5个模块,同时使用步长代替池化操作,从而可以减少信息丢失,同时提升光流预测效率。在边缘运动优化网络中使用空洞卷积,同时特征提取网络得到的特征图进行双线性差值上采样,将上采样的结果与原特征图进行特征融合,通过融合使得信息丢失减少,实现边缘的修复,进而提升光流预测的准确率。
(6)本发明针对当前光流估计算法训练过程中的损失函数导致的光流网络对小位移或亚像素运动的预测结构不够准确问题,对光流网络的损失函数进行了重新设计,为了加大对亚像素运动的惩罚,我们将预测的光流结果映射到一个运动均衡空间,在空间内,亚像素映射结果与其非亚像素映射结果相近。通过损失函数的改进可以提升小位移的预测精度,进而使得光流网络的预测结果的精准性得到提升。
附图说明
图1是本发明中的基于多级损失量的端到端光流估计算法的流程图;
图2是本发明中的特征提取卷积神经网络结构图;
图3是本发明的光流残差流的预测网络结构图;
图4是基于多级损失量的端到端光流估计算法结构图;
图5是本发明运动边缘优化网络结构图。
具体实施方式
本发明提供了一种基于多级损失量的端到端光流估计方法,其基本思想是:将两张相邻图像I1和I2,送入图2所示的特征提取卷积神经网络进行特征提取,获得两帧图像的多尺度的特征图;在每一个尺度i下,对图像I1和I2的特征图进行相关性分析操作,获得该尺度i下的损失量信息,从而获得多尺度的损失量信息;对于获取到的损失量信息,利用图3所示的卷积神经网络获取光流信息;对于获取到的光流信息,利用图5的运动边缘优化网络进行优化,获取最终的光流信息。
可见,由于基于卷积神经网络的端到端光流估计算法在实际使用中只需要运行前向网络,因此具有高精度、高效率的特点。
进一步地,获取最终光流信息后,设计改进的L2损失函数解决小位移或亚像素运动预测结果不够精确问题,完成端到端光流估计网络的构建,进行网络的训练与测试。
下面结合附图并举实施例,对本发明进行详细描述。
图1是本发明的基于多级损失量的端到端光流估计算法的流程图。该流程包括如下步骤:
如图2所示,从输入视频中获取相邻两帧图像,两帧图像分别记为第一帧图像I1和第二帧图像I2,将两帧图像输入到特征提取网络,该模型的特征提取网络采用卷积神经网络。两幅图像的特征提取为孪生网络,即对两针图像提取特征的卷积神经网络完全相同。
将两帧图像I1和I2输入特征提取网络后,在6个模块下获取不同尺度的特征图。特征提取网络的具体结构如图2所示,特征提取网络是一个6级孪生网络,即总共有6个模块。每一个模块由两个卷积层构成,两个卷积层具有相同的宽度,且为了减少计算量,所有的卷积核大小设置为3,每个卷积层后面使用leaky-Relu作为激活函数,leaky-Relu可以使输入小于0的部分不被简单的全部丢弃,同时网络没有使用pool(池化)层,因为考虑到池化层的简单的最大化或者平均策略会导致信息的丢失。本发明中使用stride(补偿)代替pool,第一层卷积使用stride为2,第二层卷积使用stride为1,因此每经过一个模块,特征图的尺度降低为原来的1/2,即最高层特征图的尺度为原图的1/64。从第一级模块到第六级模块的卷积层通道数分别设置为{16,32,64,96,128,192}。相对于常用的VGG-16或Resnet-101结构,本发明没有使用更深和更厚的特征图,因为光流预测中效率是很重要的一个评测标准。
步骤二:在每一个尺度i下,对图像I1和I2的特征图进行相关性分析操作,获得该尺度i下的损失量信息cvi,从而获得多尺度的损失量信息。
参见图4,该步骤包括如下子步骤:
步骤S21:将步骤一得到的多尺度特征图为fi 1和fi 2(i=1,2…,6),其表示两帧图像由第i个模块输出的特征图,其中上角标1代表前一帧图像I1,2代表后一帧图像I2,即第i个尺度下提取得到的图像深度表示。
对于得到的特征图fi 1和fi 2,本发明用相关性分析(correlation)完成损失量信息构建过程,损失量信息构建过程如图4中的C操作所示。原始的相关性分析是用来构建区域间相关性的,即令特征图fi 1中每个patch(块),在特征图fi 2中的一个区域内进行卷积操作,并将每次卷积的结果以通道的方式堆叠。本发明对原始的相关性分析进行修改,把patch降维成一个元素时,即是损失量信息的表示,公式定义为:
c(x1,x2)=∑o∈[-k,k]×[-k,k]<f1(x1),f2(x2+o)〉 (1)
其中xi是特征图中的元素,f(xi)表示该位置上图像的亮度,x2+o定义了一个以x2为中心,面积为[2k+1]2的正方形区域,x1与x2在特征图fi 1和fi 2中都以stride=1的步长移动,这样可以考虑所有的像素点而没有遗漏。因此,公式表示对于特征图fi 1中的某个像素点x1,以逐像素的形式与特征图fi 2中以x2为中心的区域进行相乘操作,得到[2k+1]2个乘积结果后以通道的形式堆叠起来。
步骤S22:光流估计中不同模块下的特征图具有不同尺度,每一个像素点对应的感受野也大不相同,因而本发明使用多个特征图尺度来构建多尺度的损失量信息。在步骤S21中,对于尺度为w×h的两个特征图(w和h分别为特征图的长和宽),得到损失量信息的tensor(张量)大小为w×h×[2k+1]2。参数k用来度量每个尺度的特征图下考虑的相关范围,对于不同尺度的特征图,每个像素编码的感受野大小是不同的,例如第二个模块下的特征图的每个像素编码对应原图4×4的感受野,而最高级尺度的特征图的每个像素可以编码对应原图64×64的感受野。因此在低级尺度下采取较大的k值,在高级尺度下,k取较小值,从而保证进行相关性分析操作的范围接近。本发明在不同的特征图尺度下使用不同的k值,具体来讲,在图4中的模块2到模块6对应的尺度下的特征图分别使用k=[14,10,8,6,4],本发明在模块2出得到该阶段最后光流预测,因而不考虑第模块1的损失量信息。在特征提取网络得到的多个特征图尺度下执行这个操作,因此称之为多级损失量。本发明将获取的多级损失量表示为:
cvi=corr(fi 1,fi 2) (2)
其中,corr表示相关性分析操作。
步骤三:针对每一个尺度i,将尺度i下获取的损失量信息cvi、第一帧图像I1在该尺度下的特征图上一级预测得到光流信息Vi+1合并在一起,送入光流预测卷积神经网络Gi中,获取该尺度下的残差流vi,将残差流vi与上一级光流信息的上采样结果相加得到该尺度的光流信息Vi。
参见图4,本步骤的具体实施包括:
步骤S31:在第i个模块下得到的i级特征图下,将该级的损失量信息cvi=corr(fi 1,fi 2)、前一帧图像I1在第i个尺度下的深度特征图表示i+1模块下的i+1级预测得到的并经过上采样的光流结果利用合并操作合并到一起作为该级光流估计时的输入inputi,记为:
inputi=concat{fi 1,cvi,u(Vi+1)} (3)
其中,concat是一个连接函数,是指将三个矩阵通过前后连接的方式合并在一起,合并后矩阵的大小是三个矩阵之和。u(·)是一个上采样函数,这里上采样是因为每一级卷积操作后特征图的大小发生了变化,为了使得下一级数据与本级数据能够合并,需要将他们处理成同等大小,这里的上采样就是将下一级数据通过采样方式扩大到本级数据大小;Vi+1为上一级网络得到的光流结果。本发明将光流信息作为输入成份使网络更易于收敛,将上一级得到的光流Vi+1在经过上采样后作为下一级网络的输入成份。本发明使用双线性插值实现上采样过程,简单的双线性插值比其他上采样方法取得了更好的效果,记为:
步骤S32:将步骤S31得到的合并结果输入进图4中的轻量级的光流预测卷积神经网络Gi。光流预测卷积神经网络采用浅层光流预测卷积神经网络实现,其网络结构如图3所示,预测该尺度下的残差流,表示为:
vi=Gi(inputi,θ) (5)
光流预测卷积神经网络共有6个卷积层,输入张量的维度已经经过下采样,网络中没有进一步采取下采样操作,即没有stride或pool层。每个卷积核的大小设置为3×3,且每个卷积层后面使用leay Relu作为非线性激活层。各个卷积层的channel数设置为{128,128,96,64,32,2},最后一层通道数为2表示在该层进行预测。本发明没有直接预测每个尺度下的光流值,而是训练网络预测上级光流相对于本级光流实际值(样本训练标签)的残差值,这比直接预测光流取得更好的效果。考虑到对于不同的输入尺度,一个3×3卷积核所能采集的感受野是不同的,因此对于不同的尺度下使用不同的轻量光流预测卷积神经网络。
步骤四:将第二级尺度的光流信息V2与输入的两帧图像I1和I2进行特征融合(fusion)操作,将融合后的信息送入到运动边缘优化网络得到最终的光流预测结果。
图4所示网络中模块1得到的第一级特征图的语义信息过于低级,因此本发明从模块2得到的第2级尺度下的光流预测卷积神经网络得到第一阶段的光流。在得到第一阶段的光流后,本发明将第一阶段光流与输入图像进行特征融合操作。具体来讲,第一阶段得到的光流尺度实际上是输入图像尺度的首先将光流数值结果扩大20倍,然后上采样到输入图像尺寸,接下来使用上采样的光流结果对第二帧图像进行弯曲操作,得到弯曲后的第二帧图像,表示为:
其中w(·)表示warping(弯曲)操作。之后对第一帧图像与弯曲后的第二帧图像求差,并将结果压缩为1维得到brightness(亮度)信息,此信息作为输入成份之一,表示为:
其中,ChannelNorm(·)表示维度压缩操作,将矩阵压缩为1维向量。
将合并操作得到的结果输入到运动边缘优化网络S中,进行运动边缘修复。运动边缘优化网络结构如图5所示,其中的特征提取网络共含有5个模块,使用步长(stride)代替池化(pooling)操作,除了第一个模块仅使用一个卷积核大小为7×7的卷积层外,其余4个模块都含有两个通道数相同且卷积核大小为3×3的卷积层,每个卷积层后面使用leaky-Relu作为非线性激活函数,各个模块的通道数分别设置为[64,64,128,256,512];5个模块均使用空洞率为2的空洞卷积。
由于在模块中使用了空洞率为2的空洞卷积,因而此时得到的张量尺度为原图的将此张量输入进ASPP(atrous spatial pyramid pooling)模块,ASPP模块包括5个模块,前四个均为卷积核大小为3×3的卷积层,这4个卷积层的空洞率分别设置为[1,4,8,12],通道数为64。特征提取子网络的输出并行进入这4个模块进行处理,输出的特征进入一个卷积核大小为3、通道数为64的卷积层中进行特征的特征融合操作。
输入的光流信息与两帧图像的合并结果经特征提取子网络和ASPP模块的处理后,之后再使用一个卷积核为3、通道数为2的卷积层预测光流的值,这两个卷积层的步长为0,因此此时特征图大小依然为原图的之后执行解码操作:首先将编码得到的特征图进行上采样,本发明使用双线性插值将特征图上采样4倍,即为原图的接下来为了补充底层特征编码的像素位置信息,将特征提取模块的第二个卷积得到的特征图进行还原操作,即使用卷积核大小1、通道数为8的卷积进行卷积操作。之后将还原得到的特征图与上采样的编码特征图进行合并,将合并结果经过两层卷积核大小为3、通道数为64的卷积层进行特征融合,最后经过一个卷积核大小为3、通道数为2的卷积层预测得到最后的光流结果。
上述步骤一~步骤四构建了如图4的多级损失量的端到端光流估计网络。
步骤五、对损失量的端到端光流估计网络进行训练与测试。
由于本发明的光流估计网络为端到端网络,因此在训练时直接对图4所示的网络整体进行训练。训练时输入训练集,训练数据执行图4网络的前向过程,得到一个预测结果,同时训练集包含输入训练数据的ground truth(标签),利用损失函数对预测值和标签值计算网络误差,然后利用计算的误差对网络进行反向传播,实现网络的训练。
在得到预测的光流结果后,本发明针对光流估计中小位移或亚像素预测不准的问题。对训练过程中采用的损失函数进行了仔细思考,目前普遍使用的L2损失函数L结构如下:
其中,Vi(θ,x)为预测得到的光流结果(光流矩阵),x为光流矩阵的每个元素,θ为网络参数,为作为样本训练标签的光流实际值(ground truth),即样本训练标签,|·|2表示L2范数;λ为正则项系数,需要在训练中根据训练数据调整。在损失函数下,若某个像素点对应的光流值小于1(即亚像素运动情况),经过平方后得到贡献的损失则变得更小,因此很难对亚像素运动进行惩罚。
为了加大对亚像素运动的惩罚,本发明将预测的光流结果映射到一个运动均衡空间,在空间内,亚像素映射结果与其非亚像素映射结果相近,表示为:
其中α为一个接近0的较小正数,是为了避免真数位置出现0,γ为一个正则系数。
训练时使用多监督训练方法,即首先将光流ground truth乘以系数0.05,然后下采样至各个尺度,对该尺度对应的浅层网络预测得到的光流求取损失。对于不同尺度的损失函数,使用不同的系数来对训练施加不同的权重,具体来讲,5个尺度下的损失函数系数分别为[0.005,0.01,0.02,0.08,0.32],优化网络输出尺度与第二级尺度相同,因此使用系数0.005.这样的安排使得第二级和第三级损失权重变得稍大可以使网络对于图像细节更好学习。使用Adam算法执行模型的训练,其中β1设置为0.9,β2设置为0.999。训练步数设置为120w步,前40w步使用基础学习率0.0001,之后每经过20w步迭代,学习率下降至原来的直至网络完全收敛。
训练完成后,利用视频或者相邻的两帧图像进行测试,测试过程中执行光流网络的前向过程即可。
步骤六、采用训练和测试完成的网络进行光流估计。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于多级损失量的端到端光流估计方法,其特征在于,包括:
步骤一:将两张相邻图像I1和I2,送入相同的特征提取卷积神经网络进行特征提取,获得两帧图像的多尺度的特征图fi 1和fi 2;所述特征提取卷积神经网络是一个N级孪生网络,i=1,2,…,N;
步骤二:在每一个尺度i下,对图像I1和I2的特征图进行相关性分析操作,获得该尺度i下的损失量信息cvi,从而获得多尺度的损失量信息;
步骤三:针对每一个尺度i,将尺度i下获取的损失量信息cvi、第一帧图像I1在该尺度下的特征图fi 1、上一级预测得到光流信息Vi+1合并在一起,送入光流预测卷积神经网络Gi中,获取该尺度下的残差流vi,将残差流vi与上一级光流信息的上采样结果相加得到该尺度的光流信息Vi;
步骤四:将第二级尺度的光流信息V2与输入的两帧图像I1和I2进行特征融合操作,将融合后的信息送入到运动边缘优化网络得到最终的光流预测结果。
2.如权利要求1所述的方法,其特征在于,所述特征提取卷积神经网络包括6个模块;每个模块由两个卷积层构成,两个卷积层具有相同的宽度,且卷积核大小设置为3,每个卷积层后面使用leaky-Relu作为激活函数;特征提取卷积神经网络中采样步长代替池化层,第一层卷积使用步长为2,第二层卷积使用步长为1;第一级模块到第六级模块的卷积层通道数分别设置为{16,32,64,96,128,192}。
3.如权利要求1所述的方法,其特征在于,所述相关性分析操作为:对于特征图fi 1中的某个像素点x1,以逐像素的形式与特征图fi 2中以x2为中心、面积为[2k+1]2的正方形区域进行相乘操作,得到[2k+1]2个乘积结果后以通道的形式堆叠起来,即为损失量信息cvi;其中,k为设定的区域边长,尺度越低,采用的k值越大。
4.如权利要求3所述的方法,其特征在于,不同尺度的k值不同,所述特征提取卷积神经网络中第2~第6个模块尺度下的特征图分别使用k=[14,10,8,6,4]。
5.如权利要求1所述的方法,其特征在于,所述上采样操作采用双线性插值获得。
6.如权利要求1所述的方法,其特征在于,所述光流预测卷积神经网络Gi包括6个卷积层,没有步长和池化层;每个卷积核的大小设置为3×3,且每个卷积层后面使用leaky-Relu作为非线性激活层;各个卷积层的通道数设置为{128,128,96,64,32,2}。
7.如权利要求1所述的方法,其特征在于,所述运动边缘优化网络包括特征提取子网络和ASPP模块;
特征提取子网络共含有5个模块,使用步长代替池化操作,除了第一个模块仅使用一个卷积核大小为7×7的卷积层外,其余每个模块都含有两个通道数相同且卷积核大小为3×3的卷积层,每个卷积层后面使用leaky-Relu作为非线性激活函数,各个模块的通道数分别设置为[64,64,128,256,512];5个模块均使用空洞率为2的空洞卷积;
ASPP模块包括5个模块,前四个均为卷积核大小为3×3的卷积层,不同卷积层的空洞率分别设置为[1,4,8,12];特征提取子网络的输出并行进入这4个模块进行处理,输出的特征进入一个卷积核大小为3、通道数为64、步长为0的卷积层中进行特征的特征融合操作;
输入的光流信息与两帧图像的合并结果经特征提取子网络和ASPP模块的处理后,使用一个卷积核为3、通道数为2、步长为0的卷积层预测光流的值,并进行上采样,得到上采样的编码特征图;
将特征提取子网络中第二个卷积层得到的特征图进行还原操作,即使用卷积核大小为1、通道数为8的卷积进行卷积操作;之后将还原得到的特征图与上采样的编码特征图进行合并,将合并结果经过两层卷积核大小为3、通道数为64的卷积层进行特征融合,最后经过一个卷积核大小为3、通道数为2的卷积层预测得到最后的光流结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910371605.4A CN110111366B (zh) | 2019-05-06 | 2019-05-06 | 一种基于多级损失量的端到端光流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910371605.4A CN110111366B (zh) | 2019-05-06 | 2019-05-06 | 一种基于多级损失量的端到端光流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110111366A CN110111366A (zh) | 2019-08-09 |
CN110111366B true CN110111366B (zh) | 2021-04-30 |
Family
ID=67488392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910371605.4A Active CN110111366B (zh) | 2019-05-06 | 2019-05-06 | 一种基于多级损失量的端到端光流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110111366B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112396074A (zh) * | 2019-08-15 | 2021-02-23 | 广州虎牙科技有限公司 | 基于单目图像的模型训练方法、装置及数据处理设备 |
CN110619655B (zh) * | 2019-08-23 | 2022-03-29 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
CN111369595A (zh) * | 2019-10-15 | 2020-07-03 | 西北工业大学 | 基于自适应相关卷积神经网络的光流计算方法 |
CN110826632B (zh) * | 2019-11-11 | 2024-02-13 | 深圳前海微众银行股份有限公司 | 图像变化检测方法、装置、设备及计算机可读存储介质 |
CN112819150B (zh) * | 2019-11-18 | 2024-05-07 | 浙江大学 | 基于神经网络的预测块生成方法及装置 |
CN111192312B (zh) * | 2019-12-04 | 2023-12-26 | 中广核工程有限公司 | 基于深度学习的深度图像获取方法、装置、设备及介质 |
CN111179246B (zh) * | 2019-12-27 | 2021-01-29 | 中国科学院上海微系统与信息技术研究所 | 一种像素位移量确认方法、装置、电子设备及存储介质 |
CN111340844B (zh) * | 2020-02-24 | 2023-05-02 | 南昌航空大学 | 基于自注意力机制的多尺度特征光流学习计算方法 |
CN111626308B (zh) * | 2020-04-22 | 2023-04-18 | 上海交通大学 | 一种基于轻量卷积神经网络的实时光流估计方法 |
CN111709880B (zh) * | 2020-06-17 | 2023-10-13 | 贝格迈思(深圳)技术有限公司 | 一种基于端到端神经网络的多路图片拼接方法 |
CN111914997B (zh) * | 2020-06-30 | 2024-04-02 | 华为技术有限公司 | 训练神经网络的方法、图像处理方法及装置 |
CN112419411B (zh) * | 2020-11-27 | 2024-03-26 | 广东电网有限责任公司肇庆供电局 | 一种基于卷积神经网络和光流特征视觉里程计的实现方法 |
CN112581486A (zh) * | 2020-11-27 | 2021-03-30 | 深圳点猫科技有限公司 | 一种基于双向级联网络的边缘检测方法、装置及设备 |
CN112634324A (zh) * | 2020-12-07 | 2021-04-09 | 中国地质大学(武汉) | 一种基于深度卷积神经网络的光流场估计方法 |
CN112767441B (zh) * | 2021-01-08 | 2023-06-06 | 南昌航空大学 | 一种基于残差场和位移场的图像光流优化方法及系统 |
CN112802145A (zh) * | 2021-01-27 | 2021-05-14 | 四川大学 | 一种基于深度学习的彩色计算鬼成像方法 |
WO2022170562A1 (zh) * | 2021-02-10 | 2022-08-18 | 中国科学院深圳先进技术研究院 | 一种消化内镜导航方法和系统 |
CN113592709B (zh) * | 2021-02-19 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 图像超分处理方法、装置、设备及存储介质 |
CN112949500A (zh) * | 2021-03-04 | 2021-06-11 | 北京联合大学 | 一种基于空间特征编码改进的YOLOv3车道线检测方法 |
CN113269699B (zh) * | 2021-04-22 | 2023-01-03 | 天津(滨海)人工智能军民融合创新中心 | 基于异步事件流与灰度图像融合的光流估计方法与系统 |
CN113469985A (zh) * | 2021-07-13 | 2021-10-01 | 中国科学院深圳先进技术研究院 | 内镜图像特征点提取方法 |
CN113613011B (zh) * | 2021-07-26 | 2022-09-30 | 北京达佳互联信息技术有限公司 | 一种光场图像压缩方法、装置、电子设备及存储介质 |
CN114677412B (zh) * | 2022-03-18 | 2023-05-12 | 苏州大学 | 一种光流估计的方法、装置以及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292912A (zh) * | 2017-05-26 | 2017-10-24 | 浙江大学 | 一种基于多尺度对应结构化学习的光流估计方法 |
CN107506712A (zh) * | 2017-08-15 | 2017-12-22 | 成都考拉悠然科技有限公司 | 一种基于3d深度卷积网络的人类行为识别的方法 |
CN109146872A (zh) * | 2018-09-03 | 2019-01-04 | 北京邮电大学 | 基于深度学习和光流法的心脏冠状动脉影像分割识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106658023B (zh) * | 2016-12-21 | 2019-12-03 | 山东大学 | 一种基于深度学习的端到端视觉里程计及方法 |
KR102474168B1 (ko) * | 2017-03-17 | 2022-12-06 | 포틀랜드 스테이트 유니버시티 | 적응형 컨볼루션 및 적응형 분리형 컨볼루션을 통한 프레임 인터폴레이션 |
CN108320020A (zh) * | 2018-02-07 | 2018-07-24 | 深圳市唯特视科技有限公司 | 一种基于双向光流的端到端无监督学习方法 |
CN108648216B (zh) * | 2018-04-19 | 2020-10-09 | 长沙学院 | 一种基于光流与深度学习的视觉里程计实现方法和系统 |
-
2019
- 2019-05-06 CN CN201910371605.4A patent/CN110111366B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292912A (zh) * | 2017-05-26 | 2017-10-24 | 浙江大学 | 一种基于多尺度对应结构化学习的光流估计方法 |
CN107506712A (zh) * | 2017-08-15 | 2017-12-22 | 成都考拉悠然科技有限公司 | 一种基于3d深度卷积网络的人类行为识别的方法 |
CN109146872A (zh) * | 2018-09-03 | 2019-01-04 | 北京邮电大学 | 基于深度学习和光流法的心脏冠状动脉影像分割识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110111366A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
CN111210435B (zh) | 一种基于局部和全局特征增强模块的图像语义分割方法 | |
CN112347859B (zh) | 一种光学遥感图像显著性目标检测方法 | |
Wang et al. | Fadnet: A fast and accurate network for disparity estimation | |
CN113469094A (zh) | 一种基于多模态遥感数据深度融合的地表覆盖分类方法 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN112396607A (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN111861880B (zh) | 基于区域信息增强与块自注意力的图像超分与融合方法 | |
CN111582483A (zh) | 基于空间和通道联合注意力机制的无监督学习光流估计方法 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN111401436A (zh) | 一种融合网络和双通道注意力机制的街景图像分割方法 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN110246171B (zh) | 一种实时单目视频深度估计方法 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN115512103A (zh) | 多尺度融合遥感图像语义分割方法及系统 | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
CN113850324B (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN112288772B (zh) | 基于在线多特征选择的通道注意力目标跟踪方法 | |
CN115018888A (zh) | 一种基于Transformer的光流无监督估计方法 | |
CN114898284A (zh) | 一种基于特征金字塔局部差异注意力机制的人群计数方法 | |
CN116862828A (zh) | 一种架空输电线路关键部件及缺陷的检测方法 | |
CN116485867A (zh) | 一种面向自动驾驶的结构化场景深度估计方法 | |
CN116071748A (zh) | 一种基于频域全局滤波的无监督视频目标分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |