CN110176023A - 一种基于金字塔结构的光流估计方法 - Google Patents
一种基于金字塔结构的光流估计方法 Download PDFInfo
- Publication number
- CN110176023A CN110176023A CN201910356481.2A CN201910356481A CN110176023A CN 110176023 A CN110176023 A CN 110176023A CN 201910356481 A CN201910356481 A CN 201910356481A CN 110176023 A CN110176023 A CN 110176023A
- Authority
- CN
- China
- Prior art keywords
- light stream
- pyramid
- feature
- network model
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于金字塔结构的光流估计方法,包括以下步骤:构建空间金字塔孪生网络模型;构建结构金字塔网络模型,结构金字塔的各个层设置至少一个卷积神经网络,从底层到高层,卷积神经网络的数量依次递减;在光流训练集中获取一组图片对和对应的光流标签;采用空间金字塔孪生网络模型对图片对进行多尺度特征提取和下采样,并将提取的特征对输入到结构金字塔网络模型对应层的卷积神经网络中;参照光流标签,同时对空间金字塔孪生网络模型和结构金字塔网络模型进行训练和微调;在光流测试集上,使用该空间金字塔孪生网络模型和结构金字塔网络模型,获得光流测试集的预测光流场。与现有技术相比,本发明具有准确度高、效率高等优点。
Description
技术领域
本发明涉及一种光流估计方法,尤其是涉及一种基于金字塔结构的光流估计方法。
背景技术
光流是图像亮度模式的表观运动。当人的眼睛观察运动物体时,物体的景象在人眼的视网膜上形成一系列连续变化的图像,这一系列连续变化的信息不断“流过”视网膜(即图像平面),好像一种光的“流”,故称之为光流。从本质上说,光流就是你在这个运动着的世界里感觉到的明显的视觉运动。光流表达了图像的变化,由于它包含了目标运动的信息,因此可被观察者用来确定目标的运动情况。由光流的定义可以引申出光流场,它是指图像中所有像素点构成的一种二维瞬时速度场,其中的二维速度矢量是景物中可见点的三维速度矢量在成像表面的投影。
对光流的研究已经成为计算机视觉及有关研究领域中的一个重要部分。二十多年来,多种光流估计的方法被提出,光流估计的准确性也不断得到提高。但是基于梯度的传统光流计算方法有多个前提假设,比如相邻帧之间的亮度恒定,相邻视频帧的取帧时间连续,相邻帧之间物体的运动比较“微小”,保持空间一致性等。这些假设可能影响在真实情况下的光流计算,导致在实际应用中准确度下降。同时,由于传统光流法采用迭代的方法,计算复杂耗时。基于匹配的传统光流估计算法通过不断地对目标主要特征区域进行定位、跟踪和匹配来计算稀疏光流。虽然这类算法可以对大位移运动和亮度变化的鲁棒性,但难以估计亚像素精度的光流且计算耗时。这两类传统方法如果没有特殊的硬件支持,很难应用于视频序列的实时检测。
如今,随着深度学习的发展,越来越多的研究领域开始借助深度学习的方法获得更多研究成果,比如图像分类、目标识别等等。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务。深度学习能够通过对大量数据的学习获得提取特征的能力,从而替代手工获取特征。使用深度学习技术进行光流估计能够获得比传统光流法更高的准确度,并且大大提高光流估计的速度,达到接近实时检测的效果。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于金字塔结构的光流估计方法。
本发明的目的可以通过以下技术方案来实现:
一种基于金字塔结构的光流估计方法,包括以下步骤:
S1:构建空间金字塔孪生网络模型;
S2:构建结构金字塔网络模型,结构金字塔的各个层设置至少一个卷积神经网络,从底层到高层,卷积神经网络的数量依次递减;
S3:在光流训练集中获取一组图片对和对应的光流标签;
S4:采用空间金字塔孪生网络模型对图片对进行多尺度特征提取和下采样,并将提取的特征对输入到结构金字塔网络模型对应层的卷积神经网络中;
S5:参照光流标签,同时对空间金字塔孪生网络模型和结构金字塔网络模型进行训练和微调;
S6:在光流测试集上,使用步骤S5获得的空间金字塔孪生网络模型和结构金字塔网络模型,获得光流测试集的预测光流场。
进一步地,所述步骤S2中,结构金字塔的每一层中,采用稠密连接的方式将卷积神经网络两两连接,前一个卷积神经网络的输出作为后一个卷积神经网络的输入;
层与层之间,每一层的输出经过上采样后作为下一层的输入,最高层的输出经过上采样后,使得分辨率与输入图片分辨率相同,作为结构金字塔的输出结果。
进一步地,所述步骤S4中,对图片对进行多尺度特征提取和下采样,在空间金字塔的每个层获得不同分辨率和通道数的特征对,具体过程包括:
S401:将一对图片分别输入到空间金字塔孪生网络模型的两个输入流中;
S402:对两张图片进行多尺度特征提取,并对特征进行激活处理;
S403:对特征进行下采样;
S404:重复步骤S402和S403多次,获取多组特征对,分别作为位于结构金字塔不同层的卷积神经网络的输入,具体为:将空间金字塔孪生网络模型未被输入的特征对中分辨率最小的特征对,从最底层开始,输入结构金字塔一层中的每一个卷积神经网络中。
进一步地,所述步骤S4中,结构金字塔中的卷积神经网络接收到特征对后,首先在卷积神经网络的WCC模块中,对特征对进行特征扭曲(Warping)和代价体构建(CostVolume),再衔接代价体、初始光流和特征对中的第一个特征(Concatenation),计算残差光流,将初始光流和残差光流相加,得到优化后的光流场,最后输入到下一个卷积神经网络作为初始光流,结构金字塔最底层的第一个卷积神经网络的初始光流场为0。
进一步地,所述特征扭曲的表达式为;
式中,为输入结构金字塔第L层卷积神经网络的特征对中的第二个特征,为特征经过特征扭曲后的特征,为在坐标(x,y)处的特征向量,为在坐标(x,y)处的特征向量,u(x,y)为坐标(x,y)处的光流水平方向的分量,v(x,y)为坐标(x,y)处的光流竖直方向的分量。
进一步地,为了减少计算量,只计算局部特征代价体,所述代价体CV的表达式为:
式中,CV(x,y)为坐标(x,y)的代价体,为输入结构金字塔第L层卷积神经网络的特征对中的第一个特征,为在坐标(x,y)处的特征向量,d为计算局部特征代价的范围,N为的长度。
进一步地,所述计算残差光流fresidual的表达式为:
式中,finitial为初始光流,为结构金字塔第L层第n个卷积神经网络。
进一步地,所述预测光流fpredicted的表达式为:
fpredicted=fresidual+finitial
进一步地,所述步骤S5中,结构金字塔网络模型在训练过程中的整体损失之和L(P)1的表达式为:
式中,P为所有可学习参数的集合,αl为结构金字塔第l层的损失权重,表示结构金字塔第l层的第n个卷积神经网络计算得到的光流场在(x,y)处的光流向量,表示结构金字塔第l层的第n个卷积神经网络的用于计算损失的标签光流场在(x,y)处的光流向量,γ为正则项的权重,|·|k为计算k-范数。
进一步地,所述步骤S5中,结构金字塔网络模型在微调过程中的整体损失之和L(P)2的表达式为:
式中,ε为一个常量参数,q为一个决定对异常值的惩罚程度的参数,q≤1。
与现有技术相比,本发明具有以下优点:
(1)本发明提出一种结构金字塔网络模型,在结构金字塔网络模型的各个层设置不同数量的多个串联的卷积神经网络,并在每个层中使用网络间的稠密连接,从而将参数量和计算量有效分配于结构金字塔的各个层上,在一定程度上提高光流估计效率。
(2)本发明对输入特征对进行了特征扭曲和代价体构建,再衔接代价体、初始光流和特征对中的第一个特征,计算残差光流,将初始光流和残差光流相加,得到优化后的光流场,这样的特征处理方式能增加光流估计的准确度。
(3)本发明将结构金字塔网络模型和空间金字塔网络模型结合,通过空间金字塔孪生网络模型进行多尺度特征提取,再将提取的多尺度特征分别输入到对应结构金字塔网络模型的各个层的卷积神经网络中,空间金字塔孪生网络模型能加快网络的训练速度,并且与结构金字塔网络模型相配合,从而在一定程度上提高光流估计效率。
(4)本发明对图片对进行了多次的多尺度特征提取和下采样,获取了多组具有较强不变性和可区分性的特征对,分别作为位于结构金字塔不同层的卷积神经网络的输入,从而增加了光流估计的准确度。
(5)本发明模型的参数量相比于其它光流估计方法的模型较少,有利于提高光流估计效率。
附图说明
图1为本发明的原理框架示意图;
图2为本发明训练模型流程图;
图3为本发明在Sintel测试集中部分结果的可视化,其中(3a)是Sintel训练集中某相邻图片对的第一张图片,(3b)是光流场标签的可视化展示,用于对比预测结果,(3c)是训练集上预测的光流场可视化结果,(3d)是Sintel测试集中某相邻图片对的第一张图片,(3e)是测试集上预测的光流场可视化结果;
图4为本发明在KITTI测试集中部分结果的可视化,其中(4a)是KITTI训练集中某相邻图片对的第一张图片,(4b)是光流场标签的可视化展示,用于对比预测结果,(4c)是训练集上预测的光流场可视化结果,(4d)是Sintel测试集中某相邻图片对的第一张图片,(4e)是测试集上预测的光流场可视化结果;
图5为各种光流估计方法的参数量比较图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1和图2所示,本实施例提供一种基于金字塔结构的光流估计方法,包括以下步骤:
步骤1:构建一个5层的空间金字塔孪生网络模型(Spatial Pyramid)。
步骤2:构建一个5层的结构金字塔网络模型(Structural Pyramid),结构金字塔的最底层设置5个卷积神经网络,从底层到高层,卷积神经网络的数量依次减1;
结构金字塔的连接规则包括:
每一层中,采用稠密连接的方式将卷积神经网络两两连接,前一个卷积神经网络的输出作为后一个卷积神经网络的输入;
层与层之间,每一层的输出经过上采样后作为下一层的输入,最高层的输出经过上采样后,使得分辨率与输入图片分辨率相同,作为结构金字塔的输出结果。
步骤3:使用空间金字塔孪生网络模型,用于对输入的每一对图片进行特征提取和下采样,在空间金字塔的每个层提取不同分辨率和通道数的特征对,具体为:
3a)将一对图片分别输入到孪生网络的两个输入流中;
3b)每一个卷积层的两个输入流共享该层的参数,对两张图片进行特征提取,使用ReLU激活函数对提取的特征进行激活处理;
3c)使用步幅(stride)为2的卷积层对特征进行下采样,特征的分辨率变为原来的四分之一;
3d)重复步骤3b)和步骤3c)5次,获取5组特征对,分别作为位于结构金字塔不同层的卷积神经网络的输入。
步骤4:将空间金字塔孪生网络模型未被输入的特征对中分辨率最小的特征对,从最底层开始,输入结构金字塔一层中的每一个卷积神经网络中。
步骤5:在当前层中,获得由上一个卷积神经网络计算的初始光流场,(结构金字塔最底层的第一个卷积神经网络的初始光流场为0),卷积神经网络在WCC模块中结合初始光流场,对输入特征对进行特征扭曲和构建代价体的操作,再衔接代价体、初始光流场和特征对中的第一个特征,进行卷积计算残差光流。
5a)设为输入结构金字塔第L层卷积神经网络的特征对,finitial为当前L层第n个卷积神经网络获得的初始光流,(u,v)T为初始光流finitial的水平方向和竖直方向的分量,则在某个坐标(x,y)处的特征向量为该特征向量的长度为N,某个坐标(x,y)处的光流水平方向的分量为u(x,y),竖直方向的分量为v(x,y);
5b)根据初始光流finitial水平方向和竖直方向的分量,对特征进行特征扭曲。设经过特征扭曲后的特征为公式如下:
5c)使用经过特征扭曲后的特征和构建代价体CV。为了减少计算量,只计算局部特征代价体,设d为计算局部特征代价的范围,公式如下:
5d)衔接代价体CV、初始光流场finitial和特征对中的进行卷积计算残差光流:
步骤6:将初始光流光流和残差光流相加就得到优化后的光流场,输入到下一个卷积神经网络作为初始光流。
将残差光流和初始光流相加,获得预测光流,其表达式为:
fpredicted=fresidual+finitial
步骤7:重复步骤5和步骤6,直到结构金字塔的当前层的所有卷积神经网络先后都优化过光流。
步骤8:使用反卷积层(Deconv)将多次优化的光流场进行上采样,传递到空间金字塔的下一个层。
步骤9:重复步骤6和步骤7,直到获得光流场分辨率与输入图片分辨率相同,此时获得的光流场即为模型待训练的预测光流场。
步骤10:在光流训练集上同时对空间金字塔孪生网络模型和结构金字塔网络模型进行训练和微调。
10a)在飞椅数据集上同时训练空间金字塔孪生网络模型和结构金字塔网络模型。结构金字塔网络模型中的每一个卷积神经网络G都同时进行训练。在训练过程中,结构金字塔网络模型的不同层的卷积神经网络G有不同的损失权重,从第一层到第五层的损失权重分别设置为α1=0.32,α2=0.08,α3=0.02,α4=0.01,α5=0.005。设P为所有可学习参数的集合,表示结构金字塔第l层的第n个卷积神经网络计算得到的光流场在(x,y)处的光流向量,表示结构金字塔第l层的第n个卷积神经网络的用于计算损失的标签光流场在(x,y)处的光流向量。设γ为正则项的权重。|·|k表示计算k-范数。ε表示一个常量参数,q≤1为一个决定惩罚程度的参数。
10b)在训练过程中的整体损失之和:
10c)在训练过程中的整体损失之和:
步骤11:在光流测试集上,使用步骤10获得的空间金字塔孪生网络模型和结构金字塔网络模型对图片对进行光流估计,获得光流测试集的预测光流场。
步骤12:测试结果使用average end point error(AEPE)来衡量,即预测光流场上所有光流向量和标签光流场上所有光流向量的欧式距离的平均值。在KITTI2015测试集上也使用Fl-all指标衡量异常光流向量占所有光流向量的百分比。
在对待处理图片进行光流估计时,也采用上述步骤10获得的空间金字塔孪生网络模型和结构金字塔网络模型,获得预测光流场。
本发明的另一实施例中,还提供一种基于金字塔结构的光流估计装置,包括处理器和存储器,所述存储器保存有计算机程序,所述处理器调用计算机程序执行如上所述的基于金字塔结构的光流估计方法的步骤。
为了验证本发明的性能,设计了以下三组实验。
实验一:结构金字塔相同层中的小型网络间使用稠密连接(with DC)和不使用稠密连接(w/o DC)的光流估计效果比较。
实验选取FlyingChairs训练集作为训练数据集,FlyingChairs验证集、Sintel、KITTI训练集作为测试数据,在一块Titan X GPU上进行本实验。在该对比实验中,除了是否在小型网络间使用稠密连接外,其他设置都相同。在FlyingChairs训练集训练完成后,分别在FlyingChairs验证集,Sintel,KITTI训练集上进行测试。对比实验测试结果AEPE如表1所示。从结果中可知,本发明在每个结构金字塔层中使用小型网络间的稠密连接能够提高光流估计的准确度。
表1本实验在小型网络间使用稠密连接(with DC)和不使用稠密连接(w/o DC)的光流估计效果比较
实验二:光流估计准确度以及估计速度比较。
在五个公开光流数据集(即:FlyingChairs、Sintel clean、Sintel final、KITTI2012、KITTI2015)上,按照相应数据集的实验规定进行训练和测试。在FlyingChairs验证集,Sintel clean测试集、Sintel final测试集,KITTI2012测试集上,实验输出averageend point error(AEPE)值;在KITTI 2015测试集上,实验输出Fl-all值。在上述五个数据集上,本发明的实验结果分别是1.63,4.40,5.51,1.7和9.15%,在Titan X GPU上计算分辨率1024x438的图片对的光流的时间为0.07s。测试实验结果证明本发明与目前公布的主流算法相比具有很大优势,具有较好的估计准确率和实时性。
实验三:如图5所示,本实验对比了本发明光流估计方法网络模型(StruPyNet)与其它各种光流估计方法网络模型的参数量,结果证明本发明光流估计方法网络模型的参数量较少。
以上所述仅为本发明的优选实施例,并不用于限制本发明。本发明还包括由以上技术特征任意组合所组成的技术方案。
Claims (9)
1.一种基于金字塔结构的光流估计方法,其特征在于,包括以下步骤:
S1:构建空间金字塔孪生网络模型;
S2:构建结构金字塔网络模型,结构金字塔的各个层设置至少一个卷积神经网络,从底层到高层,卷积神经网络的数量依次递减;
S3:在光流训练集中获取一组图片对和对应的光流标签;
S4:采用空间金字塔孪生网络模型对图片对进行多尺度特征提取和下采样,并将提取的特征对输入到结构金字塔网络模型对应层的卷积神经网络中;
S5:参照光流标签,同时对空间金字塔孪生网络模型和结构金字塔网络模型进行训练和微调;
S6:在光流测试集上,使用步骤S5获得的空间金字塔孪生网络模型和结构金字塔网络模型,获得光流测试集的预测光流场。
2.根据权利要求1所述的一种基于金字塔结构的光流估计方法,其特征在于,所述步骤S2中,结构金字塔的每一层中,采用稠密连接的方式将卷积神经网络两两连接,前一个卷积神经网络的输出作为后一个卷积神经网络的输入;
层与层之间,每一层的输出经过上采样后作为下一层的输入,最高层的输出经过上采样后作为结构金字塔的输出结果。
3.根据权利要求1所述的一种基于金字塔结构的光流估计方法,其特征在于,所述步骤S4中,对图片对进行多尺度特征提取和下采样的具体过程包括:
S401:将一对图片分别输入到空间金字塔孪生网络模型的两个输入流中;
S402:对两张图片进行多尺度特征提取,并对特征进行激活处理;
S403:对特征进行下采样;
S404:重复步骤S402和S403多次,获取多组特征对,分别作为位于结构金字塔不同层的卷积神经网络的输入。
4.根据权利要求1所述的一种基于金字塔结构的光流估计方法,其特征在于,所述步骤S4中,结构金字塔中的卷积神经网络接收到特征对后,首先对特征对进行特征扭曲和代价体构建,再衔接代价体、初始光流和特征对中的第一个特征,计算残差光流,将初始光流和残差光流相加,得到优化后的光流场,最后输入到下一个卷积神经网络作为初始光流。
5.根据权利要求4所述的一种基于金字塔结构的光流估计方法,其特征在于,所述特征扭曲的表达式为:
式中,为输入结构金字塔第L层卷积神经网络的特征对中的第二个特征,为特征经过特征扭曲后的特征,为在坐标(x,y)处的特征向量,为在坐标(x,y)处的特征向量,u(x,y)为坐标(x,y)处的光流水平方向的分量,v(x,y)为坐标(x,y)处的光流竖直方向的分量。
6.根据权利要求4所述的一种基于金字塔结构的光流估计方法,其特征在于,所述代价体CV的表达式为:
式中,CV(x,y)为坐标(x,y)的代价体,为输入结构金字塔第L层卷积神经网络的特征对中的第一个特征,为在坐标(x,y)处的特征向量,d为计算局部特征代价的范围,N为的长度。
7.根据权利要求4所述的一种基于金字塔结构的光流估计方法,其特征在于,所述计算残差光流fresidual的表达式为:
式中,finitial为初始光流,为结构金字塔第L层第n个卷积神经网络。
8.根据权利要求1所述的一种基于金字塔结构的光流估计方法,其特征在于,所述步骤S5中,结构金字塔网络模型在训练过程中的整体损失之和L(P)1的表达式为:
式中,P为所有可学习参数的集合,αl为结构金字塔第l层的损失权重,表示结构金字塔第l层的第n个卷积神经网络计算得到的光流场在(x,y)处的光流向量,表示结构金字塔第l层的第n个卷积神经网络的用于计算损失的标签光流场在(x,y)处的光流向量,γ为正则项的权重,|·|k为计算k-范数。
9.根据权利要求8所述的一种基于金字塔结构的光流估计方法,其特征在于,所述步骤S5中,结构金字塔网络模型在微调过程中的整体损失之和L(P)2的表达式为:
式中,ε为一个常量参数,q为一个决定对异常值的惩罚程度的参数,q≤1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910356481.2A CN110176023B (zh) | 2019-04-29 | 2019-04-29 | 一种基于金字塔结构的光流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910356481.2A CN110176023B (zh) | 2019-04-29 | 2019-04-29 | 一种基于金字塔结构的光流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110176023A true CN110176023A (zh) | 2019-08-27 |
CN110176023B CN110176023B (zh) | 2023-06-02 |
Family
ID=67690271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910356481.2A Active CN110176023B (zh) | 2019-04-29 | 2019-04-29 | 一种基于金字塔结构的光流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110176023B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626308A (zh) * | 2020-04-22 | 2020-09-04 | 上海交通大学 | 一种基于轻量卷积神经网络的实时光流估计方法 |
CN112307872A (zh) * | 2020-06-12 | 2021-02-02 | 北京京东尚科信息技术有限公司 | 用于检测目标对象的方法的和装置 |
CN112884818A (zh) * | 2019-11-29 | 2021-06-01 | 中移物联网有限公司 | 稠密光流计算方法、装置、电子设备以及存储介质 |
CN113554039A (zh) * | 2021-07-27 | 2021-10-26 | 广东工业大学 | 基于多注意力机制的动态图像的光流图生成方法和系统 |
CN113658230A (zh) * | 2020-05-12 | 2021-11-16 | 武汉Tcl集团工业研究院有限公司 | 一种光流估计方法、终端以及存储介质 |
CN113673545A (zh) * | 2020-05-13 | 2021-11-19 | 华为技术有限公司 | 光流估计方法、相关装置、设备及计算机可读存储介质 |
CN114760497A (zh) * | 2021-01-08 | 2022-07-15 | 阿里巴巴集团控股有限公司 | 视频生成方法、非易失性存储介质及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160071284A1 (en) * | 2014-09-09 | 2016-03-10 | Microsoft Corporation | Video processing for motor task analysis |
CN107506712A (zh) * | 2017-08-15 | 2017-12-22 | 成都考拉悠然科技有限公司 | 一种基于3d深度卷积网络的人类行为识别的方法 |
WO2018031678A1 (en) * | 2016-08-09 | 2018-02-15 | Nauto Global Limited | System and method for precision localization and mapping |
CN108921822A (zh) * | 2018-06-04 | 2018-11-30 | 中国科学技术大学 | 基于卷积神经网络的图像目标计数方法 |
CN108932725A (zh) * | 2018-06-08 | 2018-12-04 | 哈尔滨工程大学 | 基于卷积神经网络的场景流估计方法 |
CN109614985A (zh) * | 2018-11-06 | 2019-04-12 | 华南理工大学 | 一种基于密集连接特征金字塔网络的目标检测方法 |
-
2019
- 2019-04-29 CN CN201910356481.2A patent/CN110176023B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160071284A1 (en) * | 2014-09-09 | 2016-03-10 | Microsoft Corporation | Video processing for motor task analysis |
WO2018031678A1 (en) * | 2016-08-09 | 2018-02-15 | Nauto Global Limited | System and method for precision localization and mapping |
CN107506712A (zh) * | 2017-08-15 | 2017-12-22 | 成都考拉悠然科技有限公司 | 一种基于3d深度卷积网络的人类行为识别的方法 |
CN108921822A (zh) * | 2018-06-04 | 2018-11-30 | 中国科学技术大学 | 基于卷积神经网络的图像目标计数方法 |
CN108932725A (zh) * | 2018-06-08 | 2018-12-04 | 哈尔滨工程大学 | 基于卷积神经网络的场景流估计方法 |
CN109614985A (zh) * | 2018-11-06 | 2019-04-12 | 华南理工大学 | 一种基于密集连接特征金字塔网络的目标检测方法 |
Non-Patent Citations (1)
Title |
---|
何林阳: "航空图像超分辨率重建关键技术研究", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884818A (zh) * | 2019-11-29 | 2021-06-01 | 中移物联网有限公司 | 稠密光流计算方法、装置、电子设备以及存储介质 |
CN112884818B (zh) * | 2019-11-29 | 2023-04-14 | 中移物联网有限公司 | 稠密光流计算方法、装置、电子设备以及存储介质 |
CN111626308A (zh) * | 2020-04-22 | 2020-09-04 | 上海交通大学 | 一种基于轻量卷积神经网络的实时光流估计方法 |
CN111626308B (zh) * | 2020-04-22 | 2023-04-18 | 上海交通大学 | 一种基于轻量卷积神经网络的实时光流估计方法 |
CN113658230A (zh) * | 2020-05-12 | 2021-11-16 | 武汉Tcl集团工业研究院有限公司 | 一种光流估计方法、终端以及存储介质 |
CN113658230B (zh) * | 2020-05-12 | 2024-05-28 | 武汉Tcl集团工业研究院有限公司 | 一种光流估计方法、终端以及存储介质 |
CN113673545A (zh) * | 2020-05-13 | 2021-11-19 | 华为技术有限公司 | 光流估计方法、相关装置、设备及计算机可读存储介质 |
CN112307872A (zh) * | 2020-06-12 | 2021-02-02 | 北京京东尚科信息技术有限公司 | 用于检测目标对象的方法的和装置 |
CN114760497A (zh) * | 2021-01-08 | 2022-07-15 | 阿里巴巴集团控股有限公司 | 视频生成方法、非易失性存储介质及电子设备 |
CN113554039A (zh) * | 2021-07-27 | 2021-10-26 | 广东工业大学 | 基于多注意力机制的动态图像的光流图生成方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110176023B (zh) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110176023A (zh) | 一种基于金字塔结构的光流估计方法 | |
CN104781848B (zh) | 用于估计单体的倾斜度的图像监测装置及其方法 | |
CN112001960B (zh) | 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法 | |
CN105139000B (zh) | 一种去除眼镜痕迹的人脸识别方法及装置 | |
CN108334847A (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN104869387B (zh) | 基于光流法的双目图像最大视差获取方法 | |
CN108717531B (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
CN103824272B (zh) | 基于k近邻重识别的人脸超分辨率重建方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
CN109934862A (zh) | 一种点线特征结合的双目视觉slam方法 | |
CN106228528B (zh) | 一种基于决策图与稀疏表示的多聚焦图像融合方法 | |
CN106683048A (zh) | 一种图像超分辨率方法及设备 | |
CN110991281A (zh) | 一种动态人脸识别方法 | |
CN113435282B (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
CN105184260B (zh) | 一种图像特征提取方法及行人检测方法及装置 | |
CN106910242A (zh) | 基于深度相机进行室内完整场景三维重建的方法及系统 | |
CN110555434A (zh) | 一种局部对比和全局指导的立体图像视觉显著性检测方法 | |
CN105869166B (zh) | 一种基于双目视觉的人体动作识别方法及系统 | |
CN110175986A (zh) | 一种基于卷积神经网络的立体图像视觉显著性检测方法 | |
CN105869178A (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN107481279A (zh) | 一种单目视频深度图计算方法 | |
CN109598242A (zh) | 一种新型的活体检测方法 | |
CN109993095A (zh) | 一种面向视频目标检测的帧级别特征聚合方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |