CN112102388B - 基于巡检机器人单目图像获取深度图像的方法及装置 - Google Patents

基于巡检机器人单目图像获取深度图像的方法及装置 Download PDF

Info

Publication number
CN112102388B
CN112102388B CN202010987267.XA CN202010987267A CN112102388B CN 112102388 B CN112102388 B CN 112102388B CN 202010987267 A CN202010987267 A CN 202010987267A CN 112102388 B CN112102388 B CN 112102388B
Authority
CN
China
Prior art keywords
neural network
image
convolutional neural
scale convolutional
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010987267.XA
Other languages
English (en)
Other versions
CN112102388A (zh
Inventor
程德强
付新竹
李纳森
寇旗旗
陈亮亮
龚飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202010987267.XA priority Critical patent/CN112102388B/zh
Publication of CN112102388A publication Critical patent/CN112102388A/zh
Application granted granted Critical
Publication of CN112102388B publication Critical patent/CN112102388B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于巡检机器人单目图像获取深度图像的方法及装置,属于图像处理技术领域,解决了现有现有的方法获得的深度图像精确度较低的问题。方法包括:构建多尺度卷积神经网络;所述多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络;基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;将巡检机器人拍摄的单目图像输入所述多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像,提高了深度图像的精确度。

Description

基于巡检机器人单目图像获取深度图像的方法及装置
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于巡检机器人单目图像获取深度图像的方法及装置。
背景技术
随着目前技术的不断发展与完善,中国已将机器人和智能制造纳入国家科技创新的优先重点领域。巡检机器人中对于三维场景的判断和感知成为主要难题,其根本在于二维图像的深度信息恢复。当今算法对于图形的表达不仅仅停留在二维阶段,对于有空间深度信息的三维图形的应用越来越广泛,并且根据二维图像转换成三维图像的工程项目也越来越普及,利于机械加工、建筑设计、动画制作等等。对于二维到三维图像的重建最主要的环节就是恢复其原本基于自然场景的深度信息,这个深度信息在三维降二维的过程中丢失,因此就意味着重建的过程是一个病态过程。
传统方法提出的通过双目视觉或者图像本身的纹理特征信息等获得深度图像都具有一定的局限性,获得的深度图像精确度较低,并且日常生活中标准的双目图像难以获得,具有突出特征纹理信息的照片需要一定的后期处理才能得到。
发明内容
鉴于上述的分析,本发明实施例旨在提供一种基于巡检机器人单目图像获取深度图像的方法及装置,用以解决现有的方法获得的深度图像精确度较低的问题。
一方面,本发明实施例提供了一种基于巡检机器人单目图像获取深度图像的方法,包括如下步骤:
构建多尺度卷积神经网络;所述多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,所述第一尺度卷积神经网络用于提取单目图像的全局特征,得到低分辨率图像;所述第二尺度卷积神经网络用于提取所述低分率图像的局部特征,得到高分辨率图像;所述第三尺度卷积神经网络用于对所述第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像;
基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;所述变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对;
将巡检机器人拍摄的单目图像输入所述多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。
进一步,所述第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,其中,所述DenseNet单元包括输入层、中间层和输出层;
所述输入层,用于对输入的单目图像进行归一化预处理;
所述中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;
所述输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;
所述第一上采样单元,用于对所述输出层输出的全局特征图像进行上采样,得到低分辨率图像。
进一步,所述第二尺度包括:
第一卷积层,用于对所述第一尺度模块输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;所述局部特征包括SIFT特征;
第二上采样单元,用于对所述第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
进一步,所述第一上采样单元和第二上采样单元基于最近邻算法、双线性插值算法或转置卷积实现上采样。
进一步,基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集并输入至多尺度卷积神经网络;
计算所述多尺度卷积神经网络的损失函数,当所述多尺度卷积神经网络的损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
另一方面,本发明实施例提供了一种基于巡检机器人单目图像获取深度图像的装置,包括:
网络构建模块,用于构建多尺度卷积神经网络;所述多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,所述第一尺度卷积神经网络用于提取单目图像的全局特征,得到低分辨率图像;所述第二尺度卷积神经网络用于提取所述低分率图像的局部特征,得到高分辨率图像;所述第三尺度卷积神经网络用于对所述第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像;
网络训练模块,用于根据变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;所述变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对;
深度图像获取模块,用于将巡检机器人拍摄的单目图像输入所述多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。
进一步,所述第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,其中,所述DenseNet单元包括输入层、中间层和输出层;
所述输入层,用于对输入的单目图像进行归一化预处理;
所述中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;
所述输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;
所述第一上采样单元,用于对所述输出层输出的全局特征图像进行上采样,得到低分辨率图像。
进一步,所述第二尺度包括:
第一卷积层,用于对所述第一尺度模块输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;所述局部特征包括SIFT特征;
第二上采样单元,用于对所述第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
进一步,所述第一上采样单元和第二上采样单元基于最近邻算法、双线性插值算法或转置卷积实现上采样。
进一步,基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集;
将变焦距数据集中的训练数据对输入多尺度卷积神经网络;
基于所述训练数据计算多尺度卷积神经网络的损失函数,所述多尺度卷积神经网络的损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
与现有技术相比,本发明至少可实现如下有益效果之一:
1、基于巡检机器人单目图像获取深度图像的方法,通过卷积神经网络提取了单目图像的全局特征和局部特征,得到了单目图像对应的深度图像,同时采用变焦距数据集对多尺度卷积神经网络进行训练,得到了多尺度卷积神经网络的最优网络结构,在提高单目图像深度信息恢复的准确性的同时,提高单目图像对应深度图像的精确度。
2、通过多尺度卷积神经网络分别提取了巡检机器人拍摄的单目图像的全局特征和局部特征,得到了高分辨率图像,最后使用第三尺度卷积神经网络对高分辨率图像进行卷积优化,得到了单目图像对应的深度图像,解决了现有的方法难以获得双目图像且提取的单目图像对应的深度图像精确度较低的问题,简单易行、易于实施,提高了深度图像的精确度。
3、基于第一尺度卷积神经网络对单目图像的全局特征进行提取,DenseNet单元与上采样相互配合,能够快速、高效的提取单目图像的全局特征,得到单目图像对应的低分辨率图像。
4、通过采用变焦距数据集对多尺度卷积神经网络进行训练,得到了多尺度卷积神经网络的最优网络结构,解决了现有的网络训练时基于固定焦距数据集造成的网络精确度较低的问题,在提高单目图像深度信息恢复的准确性的同时,提高了单目图像对应深度图像的精确度。
本发明中,上述各技术方案之间还可以相互组合,以实现更多的优选组合方案。本发明的其他特征和优点将在随后的说明书中阐述,并且,部分优点可从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过说明书以及附图中所特别指出的内容中来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为一个实施例中基于巡检机器人单目图像获取深度图像的方法流程图;
图2为一个实施例中多尺度卷积神经网络结构图;
图3为另一个实施例中基于巡检机器人单目图像获取深度图像的装置结构图;
附图标记:
100-网络构建模块,200-网络训练模块,300-深度图像获取模块。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
传统方法提出的通过双目视觉或者图像本身的纹理特征信息等获得深度图像都具有一定的局限性,获得的深度图像精确度较低,并且日常生活中标准的双目图像难以获得,具有突出特征纹理信息的照片需要一定的后期处理才能得到。为此,本申请提出一种基于巡检机器人单目图像获取深度图像的方法及装置,通过构造的多尺度卷积神经网络提取巡检机器人拍摄的单目图像对应的深度图像,其中,多尺度卷积神经网络中的第一尺度卷积神经网络能够提取单目图像的全局特征,第二尺度卷积神经网络能够提取单目图像的局部特征,第三尺度卷积神经网络能够对第二尺度卷积神经网络获得的高分辨率图像进行卷积优化,得到单目图像对应的深度图像,解决了现有的深度图像提取方法获得的深度图像精确度较低的问题,提高了获得的单目图像对应的深度的精确度,具有较高的实用价值。
本发明的一个具体实施例,公开了一种基于巡检机器人单目图像获取深度图像的方法,如图1所示。包括如下步骤S1~S3。
步骤S1、构建多尺度卷积神经网络;多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,第一尺度卷积神经网络用于提取单目图像的全局特征,得到低分辨率图像;第二尺度卷积神经网络用于提取所述低分率图像的局部特征,得到高分辨率图像;第三尺度卷积神经网络用于对所述第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像。
具体来说,如图2所示的多尺度卷积神经网络结构图所示,本申请中构建的多尺度卷积神经网络从三个尺度分别提取了单目图像的不同特征,第一尺度卷积神经网络主要是提取巡检机器人拍摄的单目图像的全局特征,本申请中单目图像的全局特征包括纹理、颜色、形状等,第二尺度卷积神经网络主要是根据第一尺度卷积神经网络得到的低分辨率图像提取局部特征,得到高分辨率图像,其中,局部特征包括SIFT特征,能够在有局部遮挡或者仿射变换的时候仍然能很好的还原单目图像原来的信息。第三尺度卷积神经网络主要作用是对第二尺度获得的高分辨率图像进行卷积优化,得到最终的深度图像。
通过多尺度卷积神经网络分别提取了巡检机器人拍摄的单目图像的全局特征、局部特征,得到了高分辨率图像,最后使用第三尺度卷积神经网络对高分辨率图像进行卷积优化,得到了单目图像对应的深度图像,解决了现有的方法难以获得双目图像且提取的单目图像对应的深度图像精确度较低的问题,简单易行、易于实施,提高了深度图像的精确度。
优选地,第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,其中,DenseNet单元包括输入层、中间层和输出层;输入层,用于对输入的单目图像进行归一化预处理;中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;第一上采样单元,用于对所述输出层输出的全局特征图像进行上采样,得到低分辨率图像。
具体来说,第一尺度卷积神经网络中的DenseNet单元主要是提取单目图像的全局特征,而第一上采样单元是实现对单目图像的尺寸变换,第一上采样单元可采用最近邻算法、双线性插值算法或转置卷积实现上采样。基于输入多尺度卷积神经网络的尺寸为320×240的单目图像,经过DenseNet单元后得到尺寸为15×20的全局特征图像,基于第一上采样单元得到尺寸为64×80的低分辨率图像。其中,DenseNet单元包括输入层、中间层和输出层,其中,输入层采用“Cov2d+BN+Relu”结构,“Cov2d”表示卷积层,能够对单目图像进行卷积处理,“BN”表示归一化层,用于对卷积处理后的单目图像进行归一化处理,以加快多尺度卷积神经网络后期的训练速度,“Relu”表示深度学习中的Relu激活函数。中间层包括DenseBlock_1、DenseBlock_2和连接层,其中,DenseBlock_1包含6个卷积层,DenseBlock_2中包含12个卷积层,连接层采用“Cov2d+BN+Relu”结构,以实现两个DenseBlock间的连接。输出层采用“Cov2d”结构,主要是对上一层输出的图像进行卷积。
基于第一尺度卷积神经网络对单目图像进行全局特征提取,DenseNet单元与上采样相互配合,能够快速、高效的提取单目图像的全局特征,得到单目图像对应的低分辨率图像。
优选地,第二尺度包括:第一卷积层,用于对第一尺度模块输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;所述局部特征包括SIFT特征;第二上采样单元,用于对第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
具体的,第二尺度卷积神经网络包括一个卷积层和一个上采样单元,其中,卷积层中卷积核的大小为3×3,步长为2。第二上采样单元可采用最近邻算法、双线性插值算法、转置卷积中的任意一种实现上采样。第一卷积层输出的尺寸为64×80的局部特征图像经过第二上采样单元可得到尺寸为128×160的高分辨率图像。基于第二尺度卷积神经网络中的卷积层与上采样单元的相互配合,实现了单目图像对应的局部特征的提取。
步骤S2、基于变焦距数据集对多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对。具体来说,变焦距数据集是基于固定焦距数据集变换得到,固定焦距数据集转换得到变焦距数据集的方法为常用的方法。本申请中,可直接采用标准公开的变焦距数据集对多尺度卷积神经网络进行训练。变焦距数据集中包括多组训练数据对,每一训练数据对均包含用于网络训练的单目图像及与之对应的深度图像。可经过多组训练数据对重复对多尺度卷积神经网络进行训练,以得到多尺度卷积神经网络的最优网络结构。同时,使用变焦距数据集对网络训练得到的网络结构,能够提高单目图像深度信息恢复的准确性,且提高了单目图像对应深度图像的精确度。
优选地,基于变焦距数据集对多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集并输入至多尺度卷积神经网络;
计算多尺度卷积神经网络的损失函数,当多尺度卷积神经网络的损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
具体来说,变焦距数据集包括多组训练数据对,每一训练数据对均包含单目图像及与之对应的深度图像,构成(Ilr,Ihr),其中,Ilr为用于训练的单目图像,Ihr为单目图像对应的深度图像。将训练数据对输入至多尺度卷积神经网络后,计算损失函数L0=Loss(Ihr,Ilr)=(Ihr-Ilr)2,判断是否满足L0<10-5,若是,则结束网络训练,得到多尺度卷积神经网络的最优网络结构,若否,循环迭代训练数据对,直至得到多尺度卷积神经网络的最优网络结构。
通过采用变焦距数据集对多尺度卷积神经网络进行训练,得到了多尺度卷积神经网络的最优网络结构,解决了现有的网络训练时基于固定焦距数据集造成的网络精确度较低的问题,在提高单目图像深度信息恢复的准确性的同时,提高了单目图像对应深度图像的精确度。
步骤S3、将巡检机器人拍摄的单目图像输入多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。得到多尺度卷积神经网络的最优网络结构后,可将巡检机器人拍摄的单目图像输入至多尺度卷积神经网络的最优网络结构进行深度图像提取,得到高精度的深度图像。
与现有技术相比,本实施例提供的基于巡检机器人单目图像获取深度图像的方法,通过卷积神经网络提取了单目图像的全局特征和局部特征,最终得到了单目图像对应的深度图像,同时采用变焦距数据集对多尺度卷积神经网络进行训练,得到了多尺度卷积神经网络的最优网络结构,在提高单目图像深度信息恢复的准确性的同时,提高了单目图像对应深度图像的精确度。
本发明的另一个具体实施例,公开了一种基于巡检机器人单目图像获取深度图像的装置,如图3所示,包括网络构建模块100,用于构建多尺度卷积神经网络;多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,第一尺度卷积神经网络用于提取单目图像的全局特征,得到低分辨率图像;第二尺度卷积神经网络用于提取低分率图像的局部特征,得到高分辨率图像;第三尺度卷积神经网络用于对第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像;网络训练模块200,用于根据变焦距数据集对多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对;深度图像获取模块300,用于将巡检机器人拍摄的单目图像输入多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。
通过网络构建模块构建得到了卷积神经网络,以此提取得到单目图像的全局特征和局部特征,最终得到了深度图像,同时采用变焦距数据集对多尺度卷积神经网络进行训练,得到了多尺度卷积神经网络的最优网络结构,在提高单目图像深度信息恢复的准确性的同时,提高单目图像对应深度图像的精确度。
优选地,第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,其中,DenseNet单元包括输入层、中间层和输出层;输入层,用于对输入的单目图像进行归一化预处理;中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;第一上采样单元,用于对输出层输出的全局特征图像进行上采样,得到低分辨率图像。
通过基于第一尺度卷积神经网络对单目图像的全局特征进行提取,DenseNet单元与上采样相互配合,能够快速、高效的提取单目图像的全局特征,得到单目图像对应的低分辨率图像。
优选地,第二尺度包括:第一卷积层,用于对第一尺度模块输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;所述局部特征包括SIFT特征;第二上采样单元,用于对第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
优选地,第一上采样单元和第二上采样单元基于最近邻算法、双线性插值算法或转置卷积实现上采样。
优选地,基于变焦距数据集对多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集并输入至多尺度卷积神经网络;
计算多尺度卷积神经网络的损失函数,当多尺度卷积神经网络的损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
通过多尺度卷积神经网络分别提取了巡检机器人拍摄的单目图像的全局特征、局部特征,得到了高分辨率图像,最后使用第三尺度卷积神经网络对高分辨率图像进行卷积优化,得到了单目图像对应的深度图像,解决了现有的方法难以获得双目图像且提取的单目图像对应的深度图像精确度较低的问题,简单易行、易于实施,提高了深度图像的精确度。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于巡检机器人单目图像获取深度图像的方法,其特征在于,包括如下步骤:
构建多尺度卷积神经网络;所述多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,所述第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,用于提取单目图像的全局特征,得到低分辨率图像;所述第二尺度卷积神经网络包括第一卷积层和第二上采样单元,用于提取所述低分辨率图像的局部特征,得到高分辨率图像;所述第三尺度卷积神经网络用于对所述第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像;其中,所述全局特征包括纹理、颜色和形状;所述局部特征包括SIFT特征;
基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;所述变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对;
将巡检机器人拍摄的单目图像输入所述多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。
2.根据权利要求1所述的基于巡检机器人单目图像获取深度图像的方法,其特征在于,所述DenseNet单元包括输入层、中间层和输出层;
所述输入层,用于对输入的单目图像进行归一化预处理;
所述中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;
所述输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;
所述第一上采样单元,用于对所述输出层输出的全局特征图像进行上采样,得到低分辨率图像。
3.根据权利要求2所述的基于巡检机器人单目图像获取深度图像的方法,其特征在于,所述第二尺度卷积神经网络包括:
第一卷积层,用于对所述第一尺度卷积神经网络输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;
第二上采样单元,用于对所述第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
4.根据权利要求3所述的基于巡检机器人单目图像获取深度图像的方法,其特征在于,所述第一上采样单元和第二上采样单元基于最近邻算法、双线性插值算法或转置卷积实现上采样。
5.根据权利要求1所述的基于巡检机器人单目图像获取深度图像的方法,其特征在于,基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集并输入至多尺度卷积神经网络;
计算所述多尺度卷积神经网络的损失函数,当所述损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
6.一种基于巡检机器人单目图像获取深度图像的装置,其特征在于,包括:
网络构建模块,用于构建多尺度卷积神经网络;所述多尺度卷积神经网络包括第一尺度卷积神经网络、第二尺度卷积神经网络和第三尺度卷积神经网络,其中,所述第一尺度卷积神经网络包括DenseNet单元和第一上采样单元,用于提取单目图像的全局特征,得到低分辨率图像;所述第二尺度卷积神经网络包括第一卷积层和第二上采样单元,用于提取所述低分辨率图像的局部特征,得到高分辨率图像;所述第三尺度卷积神经网络用于对所述第二尺度输出的高分辨率图像进行卷积优化,得到单目图像对应的深度图像;其中,所述全局特征包括纹理、颜色和形状;所述局部特征包括SIFT特征;
网络训练模块,用于根据变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构并保存;所述变焦距数据集基于固定焦距数据集转换得到,包括由单目图像及对应的深度图像所组成的训练数据对;
深度图像获取模块,用于将巡检机器人拍摄的单目图像输入所述多尺度卷积神经网络的最优网络结构,得到单目图像对应的深度图像。
7.根据权利要求6所述的基于巡检机器人单目图像获取深度图像的装置,其特征在于,所述DenseNet单元包括输入层、中间层和输出层;
所述输入层,用于对输入的单目图像进行归一化预处理;
所述中间层,用于对归一化预处理后的单目图像进行全局特征提取,得到全局子特征图像;
所述输出层,用于对所述中间层输出的全局子特征图像进行卷积,得到单目图像对应的全局特征图像;
所述第一上采样单元,用于对所述输出层输出的全局特征图像进行上采样,得到低分辨率图像。
8.根据权利要求6所述的基于巡检机器人单目图像获取深度图像的装置,其特征在于,所述第二尺度卷积神经网络包括:
第一卷积层,用于对所述第一尺度卷积神经网络输出的低分辨率图像进行局部特征提取,得到单目图像对应的局部特征图像;
第二上采样单元,用于对所述第一卷积层输出的局部特征图像进行上采样,得到高分辨率图像。
9.根据权利要求8所述的基于巡检机器人单目图像获取深度图像的装置,其特征在于,所述第一上采样单元和第二上采样单元基于最近邻算法、双线性插值算法或转置卷积实现上采样。
10.根据权利要求6所述的基于巡检机器人单目图像获取深度图像的装置,其特征在于,基于变焦距数据集对所述多尺度卷积神经网络进行训练,得到多尺度卷积神经网络的最优网络结构,包括如下步骤:
获取用于训练多尺度卷积神经网络的变焦距数据集并输入至多尺度卷积神经网络;
计算所述多尺度卷积神经网络的损失函数,当所述损失函数小于阈值门槛时,得到多尺度卷积神经网络的最优网络结构。
CN202010987267.XA 2020-09-18 2020-09-18 基于巡检机器人单目图像获取深度图像的方法及装置 Active CN112102388B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010987267.XA CN112102388B (zh) 2020-09-18 2020-09-18 基于巡检机器人单目图像获取深度图像的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010987267.XA CN112102388B (zh) 2020-09-18 2020-09-18 基于巡检机器人单目图像获取深度图像的方法及装置

Publications (2)

Publication Number Publication Date
CN112102388A CN112102388A (zh) 2020-12-18
CN112102388B true CN112102388B (zh) 2024-03-26

Family

ID=73760404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010987267.XA Active CN112102388B (zh) 2020-09-18 2020-09-18 基于巡检机器人单目图像获取深度图像的方法及装置

Country Status (1)

Country Link
CN (1) CN112102388B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4092572A1 (en) * 2021-05-20 2022-11-23 Wooptix S.L. Method for depth estimation for a variable focus camera
CN113436243A (zh) * 2021-07-30 2021-09-24 济宁安泰矿山设备制造有限公司 用于智能泵腔体内窥镜图像的深度信息恢复方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106779054A (zh) * 2016-12-31 2017-05-31 中国科学技术大学 一种基于雾天图像的pm2.5估计方法
CN107610194A (zh) * 2017-08-14 2018-01-19 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN110490919A (zh) * 2019-07-05 2019-11-22 天津大学 一种基于深度神经网络的单目视觉的深度估计方法
CN110717856A (zh) * 2019-09-03 2020-01-21 天津大学 一种用于医学成像的超分辨率重建算法
CN110738697A (zh) * 2019-10-10 2020-01-31 福州大学 基于深度学习的单目深度估计方法
CN111080688A (zh) * 2019-12-25 2020-04-28 左一帆 一种基于深度卷积神经网络的深度图增强方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037051B2 (en) * 2018-11-28 2021-06-15 Nvidia Corporation 3D plane detection and reconstruction using a monocular image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106779054A (zh) * 2016-12-31 2017-05-31 中国科学技术大学 一种基于雾天图像的pm2.5估计方法
CN107610194A (zh) * 2017-08-14 2018-01-19 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN110490919A (zh) * 2019-07-05 2019-11-22 天津大学 一种基于深度神经网络的单目视觉的深度估计方法
CN110717856A (zh) * 2019-09-03 2020-01-21 天津大学 一种用于医学成像的超分辨率重建算法
CN110738697A (zh) * 2019-10-10 2020-01-31 福州大学 基于深度学习的单目深度估计方法
CN111080688A (zh) * 2019-12-25 2020-04-28 左一帆 一种基于深度卷积神经网络的深度图增强方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Image Super-Resolution Using Deep Convolutional Networks;Chao Dong等;《IEEE Transactions on Pattern Analysis & Machine Intelligence》;4-6页 *
一种多尺度嵌套卷积神经网络模型;连自锋;景晓军;孙松林;黄海;;北京邮电大学学报(05);全文 *
基于多尺度特征融合的单目图像深度估计;王泉德;张松涛;;华中科技大学学报(自然科学版)(05);全文 *
基于深度卷积残差学习的图像超分辨;王知人;谷昊晟;任福全;史紫腾;王瑞;;郑州大学学报(理学版)(03);全文 *
基于结构化深度学习的单目图像深度估计;李耀宇;王宏民;张一帆;卢汉清;;机器人;20171115(06);全文 *

Also Published As

Publication number Publication date
CN112102388A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
CN113362223B (zh) 基于注意力机制和双通道网络的图像超分辨率重建方法
CN109509152B (zh) 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN110706157B (zh) 一种基于身份先验生成对抗网络的人脸超分辨率重建方法
CN111047515B (zh) 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法
CN110097528B (zh) 一种基于联合卷积自编码网络的图像融合方法
CN110020989B (zh) 一种基于深度学习的深度图像超分辨率重建方法
CN110059768B (zh) 用于街景理解的融合点与区域特征的语义分割方法及系统
CN109685716B (zh) 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法
CN107358576A (zh) 基于卷积神经网络的深度图超分辨率重建方法
CN111861961A (zh) 单幅图像超分辨率的多尺度残差融合模型及其复原方法
CN107590775B (zh) 一种利用回归树场的图像超分辨率放大方法
CN112330724B (zh) 一种基于集成注意力增强的无监督多模态图像配准方法
CN112102388B (zh) 基于巡检机器人单目图像获取深度图像的方法及装置
CN113283525B (zh) 一种基于深度学习的图像匹配方法
CN112560865B (zh) 一种室外大场景下点云的语义分割方法
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
CN112950475A (zh) 一种基于残差学习及空间变换网络的光场超分辨率重建方法
CN113792641A (zh) 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法
CN113362242A (zh) 基于多特征融合网络的图像修复方法
CN114549555A (zh) 一种基于语义分割网络的人耳图像解刨学分割方法
CN101609503B (zh) 基于双流形对齐的人脸超分图像处理方法
CN114463183A (zh) 基于频域和空域的图像超分辨率方法
CN115511705A (zh) 一种基于可变形残差卷积神经网络的图像超分辨率重建方法
CN112906675B (zh) 一种固定场景中的无监督人体关键点检测方法及系统
CN109272450A (zh) 一种基于卷积神经网络的图像超分方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant