CN107909150B - 基于逐块随机梯度下降法在线训练cnn的方法与系统 - Google Patents

基于逐块随机梯度下降法在线训练cnn的方法与系统 Download PDF

Info

Publication number
CN107909150B
CN107909150B CN201711225394.0A CN201711225394A CN107909150B CN 107909150 B CN107909150 B CN 107909150B CN 201711225394 A CN201711225394 A CN 201711225394A CN 107909150 B CN107909150 B CN 107909150B
Authority
CN
China
Prior art keywords
block
cnn
network model
training
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711225394.0A
Other languages
English (en)
Other versions
CN107909150A (zh
Inventor
杨欣
罗鸿城
高杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201711225394.0A priority Critical patent/CN107909150B/zh
Publication of CN107909150A publication Critical patent/CN107909150A/zh
Application granted granted Critical
Publication of CN107909150B publication Critical patent/CN107909150B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于逐块随机梯度下降法在线训练CNN的方法,将ResNet‑50之中的卷积层分为5个块,构成ResNet‑50的50层结构的CNN网络模型,生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet‑50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;计算一批图片的训练损失函数,判断是否启动下一次在线学习和更新进程训练新的CNN网络模型。本发明使CNN在有限的训练数据条件下可以取得更好的深度预测结果,并且减少了算法的空间复杂度,增强了CNN的泛化能力;并且选择性的训练和更新,使得算法的时间复杂度大大降低,并且提高了系统的精确度和鲁放性。本发明还提供了相应的基于逐块随机梯度下降法在线训练CNN的系统。

Description

基于逐块随机梯度下降法在线训练CNN的方法与系统
技术领域
本发明属于计算机视觉三维重建和深度学习技术领域,更具体地,涉及一种基于逐块随机梯度下降法在线训练CNN的方法。
背景技术
即时定位与地图重建技术(Simultaneous Localization And Mapping,SLAM)可以实时的预测传感器的位姿并且重建出周围环境的3D地图,在计算机视觉的多个领域有着十分重要的应用。其中,仅仅依靠单个摄像头作为输入的单目SLAM系统已经比较成熟,并且被广泛的应用。但是,单目SLAM系统也存在一个比较明显的缺点,就是不能构建出稠密的3D地图,只能构建出稀疏或者是半稠密的地图。而最近几年,用于单目图片深度估计的深度卷积神经网络(Convolutional Neural Network,CNN)已经取得了巨大的进步,因此将CNN与单目SLAM结合可以提高建图的稠密度,弥补单目SLAM的缺陷与不足。
目前将CNN与SLAM融合是一个比较热门的研究领域,不少人对其进行了探索。传统用于深度估计CNN的原理是在大量的训练数据之中学习物体的深度和形状、纹理、场景语义以及场景上下文等之间的内在联系,从而准确预测输入到网络之中图片的深度信息。
在训练CNN参数的过程中,涉及到全局优化算法,目前主流的算法是随机梯度下降法(Stochastic Gradient Descent,SGD),其主要思路是对于训练数据集,首先将其分成n个batch,每个batch包含m个样本。每次更新网络的参数都只利用一个batch的数据,而非整个训练集。其优点主要表现为:当训练数据很多时,使用batch可以减少机器的压力,并且可以更快地收敛;(2)当训练集有很多冗余时(类似的样本出现多次),batch方法收敛更快。
但是,这种方法又有着十分明显的不足:(1)容易造成整个网络对于训练数据的过拟合现象,使整个网络的泛化能力变差;(2)容易收敛到局部最优,并不是全局最优;(3)整个优化的过程耗时严重,时间复杂度过高。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于逐块随机梯度下降法在线训练CNN网络,能够明显提高CNN网络对于未知场景深度预测的准确性和鲁放性,从而能使训练出的CNN网络更好地预测单目图像的深度信息。
为实现上述目的,按照本发明一个方面,提供了一种基于逐块随机梯度下降法在线训练CNN的方法,包括如下步骤:
S1、将ResNet-50之中的卷积层分为5个块,每一个块表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x,其中conv1由一个单一的7X7的全卷积层组成,conv2_x由一个3X3的卷积层和3个瓶颈构建块共10层组成;conv3_x由4个瓶颈构建块共12层组成;conv4_x由6个瓶颈构建块共18层组成:conv5_x由3个瓶颈构建块共9层组成,五个部分加起来构成了ResNet-50的50层结构的CNN网络模型;
S2、生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;
S3、计算一批输入到所述训练后的CNN网络模型之中图片的训练损失函数,判断所有图片的损失函数是否都大于预先设定的阈值Lhigh,如果是则转步骤S2启动下一次在线学习和更新进程训练新的CNN网络模型,如果否则保持当前CNN网络模型不变。
本发明的一个实施例中,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,具体为:
在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变。而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变。
本发明的一个实施例中,所述预设停止条件具体为:达到预设的迭代次数,或者是训练的损失函数达到预先设定的阈值。
本发明的一个实施例中,所述conv2_x的3个瓶颈构建块具体为:每个瓶颈构建块均为1X1 64,3X3 64,1X1 256。
本发明的一个实施例中,所述conv3_x的4个瓶颈构建块具体为:每个瓶颈构建块均为1X1 128,3X3 128,1X1 512。
本发明的一个实施例中,所述conv4_x的个瓶颈构建块具体为:每个瓶颈构建块均为1X1 256,3X3 256,1X1 1024。
本发明的一个实施例中,所述conv5_x的3个瓶颈构建块具体为:每个瓶颈构建块均为1X1 512,3X3 512,1X1 2048。
本发明的一个实施例中,所述生成并筛选训练数据具体为:
将环境中单目图像信息,经过算法处理得到双目图像信息,并且经过筛选得到训练数据。
按照本发明的另一方面,还提供了一种基于逐块随机梯度下降法在线训练CNN的系统,包括CNN网络模型构建模块、逐块在线更新模块以及更新启动判断模块,其中:
所述CNN网络模型构建模块,用于将ResNet-50之中的卷积层分为5个块,每一个块表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x,其中conv1由一个单一的7X7的全卷积层组成,conv2_x由一个3X3的卷积层和3个瓶颈构建块共10层组成;conv3_x由4个瓶颈构建块共12层组成;conv4_x由6个瓶颈构建块共18层组成:conv5_x由3个瓶颈构建块共9层组成,五个部分加起来构成了ResNet-50的50层结构的CNN网络模型;
所述逐块在线更新模块,用于生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;
所述更新启动判断模块,用于计算一批输入到所述训练后的CNN网络模型之中图片的训练损失函数,判断所有图片的损失函数是否都大于预先设定的阈值Lhigh,如果是则转所述逐块在线更新模块启动下一次在线学习和更新进程训练新的CNN网络模型,如果否则保持当前CNN网络模型不变。
本发明的一个实施例中,所述逐块在线更新模块对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,具体为:
在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变。而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变。
与现有技术相比,本发明具有如下有益效果:
(1)本发明采取“逐块随机梯度下降”(block-wise SGD)的训练方法使CNN在有限的训练数据条件下可以取得更好的深度预测结果,并且减少了算法的空间复杂度,增强了CNN的泛化能力;
(2)本发明提出了选择性更新的策略,选择性的训练和更新,使得算法的时间复杂度大大降低,并且提高了系统的精确度和鲁放性。
附图说明
图1是本发明实施例中基于逐块随机梯度下降法在线训练CNN的方法的流程示意图;
图2是本发明实施例中对于CNN网络模型结构的分块处理示意图;
图3是在CNN训练过程中,两种方法损失函数的变化情况及对比示意图;
图4是在CNN测试过程中,采用三种方式相对误差的变化情况及对比示意图;
图5是本发明实施例中基于逐块随机梯度下降法在线训练CNN的系统的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明主要提出了一种基于逐块随机梯度下降法在线训练CNN的方法,并且实现了整个系统,目的在于克服传统CNN训练方式的诸多限制,通过充分利用周围环境的信息实现对CNN的高效训练,明显提高CNN对于未知场景深度预测的准确性和鲁放性,从而能够进一步解决传统单目SLAM不能实现稠密建图的技术问题。
本方法适用于在线训练CNN用于深度估计的工作场景之中,在工程实践之中,采用了基于ResNet-50的深度预测网络结构,并在此基础上采用了我们提出的一种基于逐块随机梯度下降法在线训练CNN方法进行了在线训练和测试。其中,整个方法包括了三个模块的内容,如图1所示。主要创新点有如下两点:
(1)提出了一种“逐块随机梯度下降”(block-wise SGD)的方法使CNN在有限的训练数据条件下可以取得更好的深度预测结果,并且减少了算法的空间复杂度,增强了CNN的泛化能力;
(2)提出了选择性更新的策略,选择性的训练和更新,使得算法的时间复杂度大大降低,并且提高了系统的精确度和鲁放性。
本发明方法主要由三个部分组成:产生训练数据,逐块SGD方法,选择性更新,如图1所示,首先通过传感器获得周围环境的图像信息,经过处理得到训练数据;在原有网络模型的基础上采用逐块SGD方法对整个网络进行在线训练;随后根据损失函数的值决定是否进行网络参数的更新。具体的实现过程如下所示:
1)产生训练数据:本专利是应用于在线训练CNN的一种方法。在本系统中,在线训练CNN需要根据周围环境的信息不断地产生新的训练数据,在实际应用时,不同的CNN网络结构可能有不同产生训练数据的方法。基于本专利采用的ResNet-50网络架构,我们采用了将环境中单目图像信息,经过算法处理得到双目图像信息,并且经过筛选得到训练数据的方法;
本方法以单目视觉传感器为基础,在采集图片时,要求单目相机有旋转和平移的运动,而且平移的幅度适当加大一些。这样做的原因主要有两个:一是如果只存在静止和纯旋转的情况,则有可能造成本部分初始化失败或者图片追踪失败,进而造成整个系统的不正常工作;二是适当的增加平移的幅度,有助于系统挑选合适的训练图片,从而保证在线训练和更新CNN过程的正常进行。
在采集的图片中筛选关键帧,其中关键帧的定义是:将单目SLAM部分定义整个序列或者相机实时得到的第一张图片为keyframe(关键帧),除了第一帧,后边的一部分图片帧也会被定义为关键帧,其中定义关键帧的原则是监测当前帧与之前一个最近的关键帧之间的平移和旋转是否达到了预先设定的阈值。以关键帧作为训练数据。
需要成对立体相机拍摄的图片作为训练图片,这些立体图片具有固定的基线Bpre-train。为了实时训练和更新CNN网络模型,本发明在单目相机运动的同时根据双目相机的规则收集成对的单目图片来模拟立体图片。本发明采用了高标准的要求来收集可信赖的训练图片以减小噪声产生的CNN网络模型对错误样本的过拟合现象。本发明设计了四个主要的筛选条件:第一,相机运动约束。两帧图片之间水平方向上的位移满足|tx|>0.9*T,其中T代表两帧图片之间的基线距离
Figure BDA0001487179540000071
第二,视差约束。对于每一对图片,都会采用光流法计算图片间的垂直方向的平均视差Disavg,只有当Disavg小于阈值δ(实验时取为5)时才会将该对图片保存为候选训练图片;第三,多样性约束。每一对训练图片的筛选都是和关键帧图片唯一对应的,也就是说同一个关键帧最多只能产生一对训练图片;第四,训练池容量约束。每当训练图片对的数量到达阈值V(实验时取4)时,就将训练池中的图片送入到网络,对网络进行在线训练,保存训练得到的网络模型,同时清空训练池继续进行训练数据的筛选;
2)逐块SGD方法:本发明将ResNet-50用于在图片中提取不同级别的特征信息,这些特征信息随后会通过一系列下采样操作被编码到视差图之中。为了减少由于训练图片局限性造成CNN过拟合的风险,本发明提出了一种“逐块随机梯度下降”(block-wise SGD)的新方法,将ResNet-50之中的卷积层分为了5个块,如图2所示,其中每一个块具体表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x。conv1由一个单一的7X7的全卷积层组成;conv2_x由一个3X3的卷积层和3个瓶颈构建块(每个瓶颈构建块为1X164,3X364,1X1256)共10层组成;conv3_x由4个瓶颈构建块(每个瓶颈构建块为1X1128,3X3128,1X1512)共12层组成;conv4_x由6个瓶颈构建块(每个瓶颈构建块为1X1256,3X3256,1X11024)共18层组成:conv5_x由3个瓶颈构建块(每个瓶颈构建块为1X1512,3X3512,1X12048)共9层组成,五个部分加起来构成了ResNet-50的50层结构。在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变。而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变,由此减少了每一次更新网络的复杂度。整个在线学习和更新的迭代一直在进行,直到停止条件被满足(比如迭代的次数的限制,或者是训练的损失函数达到预先设定的阈值);
3)选择性更新:每当有合适的训练数据产生时就进行在线学习和CNN网络模型的更新,这种做法容易造成不必要的计算开销。只要当前CNN网络模型对于当前场景可以提供足够准确的深度预测结果,就一直使用当前的CNN网络模型,直到迫不得已进行网络模型的调整。基于这个思路,本发明设计了一种“系统选择性更新”的工作模式,通过计算每一批输入到CNN网络模型之中图片的训练损失函数,一旦一批图片的所有图片的损失函数都大于预先设定的阈值Lhigh,将启动在线学习和更新的进程。在线学习和更新的进程将会一直进行,直到训练图片的损失函数降到Llow之下,或者是迭代的次数达到了预先设定的阈值。这个策略不但在很大程度上减少了计算量,而且可以满足对于网络深度预测结果精度的要求。
在实验验证的环节,我们在多个数据集上进行了测试,其中训练过程结果如图3所示,可以发现,相对于随机梯度下降,我们提出的方法可以得到更低的损失函数,并且损失函数下降的更为迅速;而在测试过程中,如图4所示,我们将不采用在线训练,使用随机梯度下降法在线训练和使用逐块随机梯度下降法在线训练的三种方法的结果进行了对比,发现我们提出的逐块随机梯度下降法在线训练得到的网络模型在进行测试时能够得到较小的误差,说明整个系统的鲁放性和精确度更强。
进一步地,如图5所示,本发明还提供了一种基于逐块随机梯度下降法在线训练CNN的系统,包括CNN网络模型构建模块1、逐块在线更新模块2以及更新启动判断模块3,其中:
所述CNN网络模型构建模块1,用于将ResNet-50之中的卷积层分为5个块,每一个块表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x,其中conv1由一个单一的7X7的全卷积层组成,conv2_x由一个3X3的卷积层和3个瓶颈构建块共10层组成;conv3_x由4个瓶颈构建块共12层组成;conv4_x由6个瓶颈构建块共18层组成:conv5_x由3个瓶颈构建块共9层组成,五个部分加起来构成了ResNet-50的50层结构的CNN网络模型;
所述逐块在线更新模块2,用于生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;
所述更新启动判断模块3,用于计算一批输入到所述训练后的CNN网络模型之中图片的训练损失函数,判断所有图片的损失函数是否都大于预先设定的阈值Lhigh,如果是则转所述逐块在线更新模块2启动下一次在线学习和更新进程训练新的CNN网络模型,如果否则保持当前CNN网络模型不变。
进一步地,所述逐块在线更新模块2对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,具体为:
在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变。而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,包括如下步骤:
S1、将ResNet-50之中的卷积层分为5个块,每一个块表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x,其中conv1由一个单一的7X7的全卷积层组成,conv2_x由一个3X3的卷积层和3个瓶颈构建块共10层组成;conv3_x由4个瓶颈构建块共12层组成;conv4_x由6个瓶颈构建块共18层组成:conv5_x由3个瓶颈构建块共9层组成,五个部分加起来构成了ResNet-50的50层结构的CNN网络模型;
S2、生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;所述生成并筛选训练数据具体为:将环境中单目图像信息,经过算法处理得到双目图像信息,并且经过筛选得到训练数据;
S3、计算一批输入到所述训练后的CNN网络模型之中图片的训练损失函数,判断所有图片的损失函数是否都大于预先设定的阈值Lhigh,如果是则转步骤S2启动下一次在线学习和更新进程训练新的CNN网络模型,如果否则保持当前CNN网络模型不变;
S4、利用所述CNN网络模型预测单目图像的深度信息。
2.如权利要求1所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,具体为:
在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变,而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变。
3.如权利要求1所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,所述预设停止条件具体为:达到预设的迭代次数,或者是训练的损失函数达到预先设定的阈值。
4.如权利要求1所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,所述conv2_x的3个瓶颈构建块具体为:每个瓶颈构建块均为1X1 64,3X3 64,1X1 256。
5.如权利要求1或2所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,所述conv3_x的4个瓶颈构建块具体为:每个瓶颈构建块均为1X1 128,3X3 128,1X1512。
6.如权利要求1或2所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,所述conv4_x的个瓶颈构建块具体为:每个瓶颈构建块均为1X1 256,3X3 256,1X11024。
7.如权利要求1或2所述的基于逐块SGD训练CNN预测单目图像深度信息的方法,其特征在于,所述conv5_x的3个瓶颈构建块具体为:每个瓶颈构建块均为1X1 512,3X3 512,1X12048。
8.一种基于逐块SGD训练CNN预测单目图像深度信息的系统,其特征在于,包括CNN网络模型构建模块、逐块在线更新模块、更新启动判断模块以及单目图像深度信息预测模块,其中:
所述CNN网络模型构建模块,用于将ResNet-50之中的卷积层分为5个块,每一个块表示为conv1,conv2_x,conv3_x,conv4_x,conv5_x,其中conv1由一个单一的7X7的全卷积层组成,conv2_x由一个3X3的卷积层和3个瓶颈构建块共10层组成;conv3_x由4个瓶颈构建块共12层组成;conv4_x由6个瓶颈构建块共18层组成:conv5_x由3个瓶颈构建块共9层组成,五个部分加起来构成了ResNet-50的50层结构的CNN网络模型;
所述逐块在线更新模块,用于生成并筛选训练数据,利用所述训练数据,对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,直到满足预设停止条件,得到训练后的CNN网络模型;
所述更新启动判断模块,用于计算一批输入到所述训练后的CNN网络模型之中图片的训练损失函数,判断所有图片的损失函数是否都大于预先设定的阈值Lhigh,如果是则转所述逐块在线更新模块启动下一次在线学习和更新进程训练新的CNN网络模型,如果否则保持当前CNN网络模型不变;
所述单目图像深度信息预测模块,用于利用所述CNN网络模型预测单目图像的深度信息。
9.如权利要求8所述的基于逐块SGD训练CNN预测单目图像深度信息的系统,其特征在于,所述逐块在线更新模块对所述分为5个块后的ResNet-50的CNN网络模型逐块进行在线学习和更新,具体为:
在每一次在线学习和更新的过程之中,每一次迭代k,只更新一个部分的参数Wi(i=1,2,3,4,5),保持剩余4个部分网络层参数不变,而在下一次迭代中,更新第i块(i=(k+1)%5)参数,其他层参数保持不变。
CN201711225394.0A 2017-11-29 2017-11-29 基于逐块随机梯度下降法在线训练cnn的方法与系统 Active CN107909150B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711225394.0A CN107909150B (zh) 2017-11-29 2017-11-29 基于逐块随机梯度下降法在线训练cnn的方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711225394.0A CN107909150B (zh) 2017-11-29 2017-11-29 基于逐块随机梯度下降法在线训练cnn的方法与系统

Publications (2)

Publication Number Publication Date
CN107909150A CN107909150A (zh) 2018-04-13
CN107909150B true CN107909150B (zh) 2020-08-18

Family

ID=61849308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711225394.0A Active CN107909150B (zh) 2017-11-29 2017-11-29 基于逐块随机梯度下降法在线训练cnn的方法与系统

Country Status (1)

Country Link
CN (1) CN107909150B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102506959B1 (ko) 2018-05-17 2023-03-07 나이앤틱, 인크. 깊이 추정 시스템의 자가 감독 훈련
CN108961327B (zh) * 2018-05-22 2021-03-30 深圳市商汤科技有限公司 一种单目深度估计方法及其装置、设备和存储介质
CN109272118B (zh) * 2018-08-10 2020-03-06 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
CN109548046B (zh) * 2018-11-16 2020-12-04 清华大学 一种信道自适应跨协议通信系统及方法
US11044462B2 (en) 2019-05-02 2021-06-22 Niantic, Inc. Self-supervised training of a depth estimation model using depth hints
CN110674926A (zh) * 2019-09-06 2020-01-10 华南理工大学 一种用于目标重建的嵌套结构的渐进式稠密网络
CN110567887A (zh) * 2019-09-12 2019-12-13 中国计量大学 一种基于光谱成像和深度学习技术的干茧茧层丝胶溶失率的无损检测方法
CN110648681B (zh) * 2019-09-26 2024-02-09 腾讯科技(深圳)有限公司 语音增强的方法、装置、电子设备及计算机可读存储介质
US12058302B2 (en) * 2022-04-06 2024-08-06 Samsung Electronics Co., Ltd. Encoding depth information for images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630739A (zh) * 2014-10-31 2016-06-01 富士通株式会社 用于执行随机梯度下降的装置和方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674507B2 (en) * 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105630739A (zh) * 2014-10-31 2016-06-01 富士通株式会社 用于执行随机梯度下降的装置和方法
CN106709875A (zh) * 2016-12-30 2017-05-24 北京工业大学 一种基于联合深度网络的压缩低分辨率图像复原方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于多尺度分块卷积神经网络的图像目标识别算法";张文达;《计算机应用》;20160430;第36卷(第308期);第157-162页 *

Also Published As

Publication number Publication date
CN107909150A (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
CN107909150B (zh) 基于逐块随机梯度下降法在线训练cnn的方法与系统
Wong et al. Unsupervised depth completion from visual inertial odometry
CN108520554B (zh) 一种基于orb-slam2的双目三维稠密建图方法
CN109271933B (zh) 基于视频流进行三维人体姿态估计的方法
CN110084304B (zh) 一种基于合成数据集的目标检测方法
CN107945265A (zh) 基于在线学习深度预测网络的实时稠密单目slam方法与系统
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN111105432B (zh) 基于深度学习的无监督端到端的驾驶环境感知方法
CN106485207B (zh) 一种基于双目视觉图像的指尖检测方法及系统
CN113205595B (zh) 一种3d人体姿态估计模型的构建方法及其应用
CN103003846B (zh) 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
CN108491763B (zh) 三维场景识别网络的无监督训练方法、装置及存储介质
KR20220006653A (ko) 3차원 모델 생성 방법, 장치, 컴퓨터 기기 및 저장 매체
CN109272493A (zh) 一种基于递归卷积神经网络的单目视觉里程计方法
WO2021051526A1 (zh) 多视图3d人体姿态估计方法及相关装置
CN111667535A (zh) 一种针对遮挡场景下的六自由度位姿估计方法
WO2018129794A1 (zh) 一种实时大规模场景三维扫描建模方法及系统
KR20220149717A (ko) 단안 카메라로부터 전체 골격 3d 포즈 복구
CN113570658A (zh) 基于深度卷积网络的单目视频深度估计方法
CN108961385A (zh) 一种slam构图方法及装置
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其系统
CN115953468A (zh) 深度和自运动轨迹的估计方法、装置、设备及存储介质
CN107358624B (zh) 单目稠密即时定位与地图重建方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN117710806A (zh) 一种基于语义分割和光流的语义视觉slam方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant