CN108492248A - 基于深度学习的深度图超分辨率方法 - Google Patents
基于深度学习的深度图超分辨率方法 Download PDFInfo
- Publication number
- CN108492248A CN108492248A CN201810089756.6A CN201810089756A CN108492248A CN 108492248 A CN108492248 A CN 108492248A CN 201810089756 A CN201810089756 A CN 201810089756A CN 108492248 A CN108492248 A CN 108492248A
- Authority
- CN
- China
- Prior art keywords
- resolution
- depth map
- depth
- network
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013135 deep learning Methods 0.000 title claims abstract description 8
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 238000002366 time-of-flight method Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于计算机图像处理领域,为提出一种利用对应的高分辨率的彩色图像,可以有效对深度图进行超分辨率,获得锐利的深度图边缘的方法。为此,本发明采取的技术方案是,基于深度学习的深度图超分辨率方法,包括下列步骤:1)从公共数据集中选取一定数量的纹理丰富的深度图和与之对应的彩色图;2)数据增强;3)将得到的深度彩色图像对进行数据预处理;4)设计深度卷积神经网络结构;5)用预处理好的数据集训练所设计的卷积神经网路,训练好卷积神经网络后,将低分辨率的深度图和对应的彩色图输入到训练好的网络中,在输出层输出完成超分辨率后的深度图。本发明主要应用于图像处理。
Description
技术领域
本发明属于计算机图像处理领域,具体涉及一种基于卷积神经网络的利用深度彩色图像对的深度图超分辨率方法。
背景技术
深度信息是三维目标视觉感知的一个重要信息,在自动驾驶,人机交互,三维场景重建及虚拟现实等方面的应用都依赖于高性能高质量的深度图。但是,目前的消费级的深度相机,包括微软的Kinect,华硕的Xtion Pro以及其它基于飞行时间法(time of flight,TOF)技术的TOF相机,由于硬件条件的限制,获得的深度图像分辨率都非常低,远远低于彩色图像的分辨率。这在实际应用中带来很大的限制,因此,为了更有效地利用深度信息数据,深度图的超分辨率方法发挥着重要的作用。
传统的深度图超分辨率方法包括局部滤波的方法,空域正则项方法和字典学习的方法。用以上方法获取的高分辨率的深度图过程中,一部分方法存在着计算复杂度大,需要很长的计算时间的问题,一部分方法也存在着在一些情况下结果会出现人工痕迹,效果不理想的问题。随着卷积神经网络的出现和迅速推广,卷积神经网络在图像处理领域有了广泛的应用和快速的发展,深度图超分辨率的方法也因为引入卷积神经网络而获得了很大的提升。
发明内容
为克服现有技术的不足,本发明旨在提出一种利用对应的高分辨率的彩色图像,可以有效对深度图进行超分辨率,获得锐利的深度图边缘的方法。为此,本发明采取的技术方案是,基于深度学习的深度图超分辨率方法,包括下列步骤:
1)从公共数据集中选取一定数量的纹理丰富的深度图和与之对应的彩色图,将每对深度彩色图像命名一致;
2)数据增强:将每一对图片都进行旋转90°,180°和270°的操作,图片数量增大为原来的4倍;
3)将得到的深度彩色图像对进行数据预处理:首先将深度图进行下采样后,再利用双三次插值方法将图像恢复到原来大小的尺寸,得到低分辨率的深度图;其中,需要将图片裁剪成128×128的小块,裁剪过程中步长设定为100,分别对原深度图,彩色图和低分辨率的深度图进行裁剪,三种类型的图像块命名都一一对应;其中从彩色图和低分辨率的深度图裁剪出来的图像块作为训练卷积神经网络的输入数据,从原深度图裁剪出来的图像块作为训练卷积神经网络的数据标签,也就是真值;特别的,对彩色图做相关处理,即利用Canny边缘检测算子获取低分辨率的深度图的边缘区域,利用高斯核模糊平滑这些区域的边缘以后,只保留对应的彩色图的这些区域的内容;
用Ih表示由高分辨率彩色图得到的灰度图,先将彩色图进行预处理的操作得到边缘引导图Eh。利用Canny边缘检测算子,从低分辨率深度图Dl中获取其中的边缘位置,也就是对应高分辨率彩色图中有用的信息的位置,由于用Canny边缘检测算子得到的边缘信息宽度只有一个像素,因此卷积上一个高斯模糊核扩宽边缘区域,接下来进行二值化的操作,将之前的值为1的区域的宽度由1个像素值扩大为带状,为了避免引入新的边界,再次卷积一个高斯模糊核将边缘区域的边界模糊化,将高分辨率强度图Ih与边缘区域相对应的位置的值相乘,将多余的信息滤除掉;
4)设计深度卷积神经网络结构:网络结构为两路,将网络设计成全卷积形式,每个卷积层的步长都设为1,这样网络的输入、每一层的特征图以及输出都保持尺寸一致;
卷积神经网络在高分辨率彩色图的引导下,学习低分辨率深度图和高分辨率深度图之间一个端到端的映射,该映射表示为:
Dh=F(Dl,Gh,{W,b})+Dl (2)
其中,Dh表示高分辨率深度图,Dl表示低分辨率深度图,Gh表示用来做引导的由对应的高分辨率彩色图得到的强度图,F(·)代表要学习的映射,W和b分别表示卷积神经网络中的权重和偏置,具体的,该网络可以分为三个部分:特征提取部分、映射和融合部分、重建部分;
训练该网络的时候使用的损失函数为均方差函数,表示如下:
其中,Θ=(W,b)表示的是网络中的参数,代表的是高分辨率深度图的真值。训练过程中,用随机梯度下降的方法来最小化损失函数;
5)用预处理好的数据集训练所设计的卷积神经网路,训练好卷积神经网络后,将低分辨率的深度图和对应的彩色图输入到训练好的网络中,在输出层输出完成超分辨率后的深度图。
步骤3)将得到的深度彩色图像对进行数据预处理中,为了避免图中包含太多值为0的像素点,造成能量太低,再将所有值为0的像素值正则化为128,具体过程表示为:
其中,G表示的是高斯卷积核,表示的是直积操作,T(·)表示的是二值化操作,其阈值为图像的最大值的0.1。
步骤4)中具体地:
41)特征提取部分:此部分为神经网络的输入部分。神经网络的输入为双三次插值方法得到的与目标尺寸相同的低分辨率深度图Dl和对应的高分辨率彩色图得到的强度图Gh,在提出的网络中,两个分支的第一层分别将输入的Dl和Gh分解成一组特征图,该过程用公式表示为:
F1(Y)=σ(W1*Y+b1) (3)
其中,*表示卷积操作,Y表示Dl或者Gh,σ表示激活函数,网络中应用的是纠正线性单元ReLU(Rectified Linear Unit)激活函数,这样能获得很好的结果,同时能够获得更快的收敛速度;
42)映射和融合部分:网络中的主分支上的每一层在引导分支上都有一个相对应的层,为了充分利用Gh和Dh之间的关联信息,把这些相对应的层在网络中都合并起来,并且是每一级都建立这样的连接,这样就有足够的空间可以把高分辨率彩色图的有用信息融合进来,这一部分表示为:
其中,k={1,2,3,...,9},也就是说,网络中包含9对这样的连接;
43)重建部分:经过前面的部分可以得到一些列的Dl和Gh的特征图,同时这些特征图随着网络的深度逐渐地融合,重建部分将这些特征图结合起来,恢复出低分辨率深度图Dl和高分辨率深度图Dh之间的残差信息,将得到的残差信息加到Dl上,就可以得到输出Dh,重建部分表示为:
Dh=σ(Wr*Fr-1+br)+Dl (5)
其中,r=10。
本发明的技术特点及效果:
本发明方法针对深度相机获取的深度图分辨率较低的问题,利用对应的高分辨率的彩色图,通过训练一个设计好的全卷积的深度卷积神经网络,解决了深度图的超分辨率问题,具有以下特点:
1、本发明设计的卷积神经网络为两路结构,利用与深度图对应的高分辨率彩色图的信息,能够得到边缘锐利的高分辨率深度图。
2、本发明设计的卷积神经网络为全卷积结构。训练好网络后,输入到网路中的低分辨率深度图可以为任意尺寸,即可以将整张图直接输入到训练好的网络中输出得到高分辨率深度图,而不需要将图像裁剪按块进行超分辨率操作。
3、本发明可以利用GPU进行加速计算,完成深度图超分辨率的用时极短。
4、本发明对各种不同的深度图的超分辨率都有较好的结果,具有一定的普适性。
附图说明
图1是步骤流程图;
图2是设计的深度卷积神经网络的网络结构图;
图3是对高分辨率彩色图像的预处理过程;
图4是用4倍超分辨率时的峰值信噪比作为评价标准来比较分别用和作引导训练神经网络时的收敛速度;
图5、图6是输出结果对比图,左边是彩色图像和参考标准,(a)是广义总变差(TGV)方法,(b)是联合强度和深度(JID)方法,(c)是本发明中使用高分辨率强度图Ih的结果,(d)是本发明中使用高分辨率边缘引导图Eh的结果。
具体实施方式
为了解决现有技术的缺陷,本发明提供了一种基于深度学习的深度图超分辨率方法,本发明采用的技术方案是:
1)参阅图1,其为本发明的步骤流程图,包括以下步骤:
11)从公共数据集中选取一定数量的纹理丰富的深度图和与之对应的彩色图,选取大概900多张,将每对深度彩色图像命名一致。
12)数据增强。为了增大数据集样本,将每一对图片都进行旋转90°,180°和270°的操作,图片数量增大为原来的4倍。
13)将得到的深度彩色图像对进行数据预处理。首先将深度图进行下采样后,再利用双三次插值方法将图像恢复到原来大小的尺寸,得到低分辨率的深度图。由于图像尺寸比较大,在训练卷积神经网络的时候会占用大量的资源,不能够直接输入整张图像,需要将图片裁剪成128×128的小块。裁剪过程中步长设定为100,分别对原深度图,彩色图和低分辨率的深度图进行裁剪,三种类型的图像块命名都一一对应。每种类型的图像裁剪出来大概二十多万的图像块,其中从彩色图和低分辨率的深度图裁剪出来的图像块作为训练卷积神经网络的输入数据,从原深度图裁剪出来的图像块作为训练卷积神经网络的数据标签,也就是真值。特别的,本发明作了进一步的改进,对彩色图做了相关处理,即利用Canny边缘检测算子获取低分辨率的深度图的边缘区域,利用高斯核模糊平滑这些区域的边缘以后,只保留对应的彩色图的这些区域的内容。经过这样处理后,代替原先的直接将彩色图输入卷积神经网络进行训练。本发明对两种处理前和处理后的结果进行了对比,处理后的彩色图输入卷积神经网络进行训练可以减少训练所需要的时间,同时在2倍和4倍超分辨率的时候能够提升结果质量。
14)设计深度卷积神经网络结构。由于输入数据为彩色图和低分辨率的深度图,因此网络结构为两路。因为低分辨率的深度图尺寸已经和高分辨率的深度图尺寸一样,因此可以将网络设计成全卷积形式,每个卷积层的步长都设为1,这样网络的输入、每一层的特征图以及输出都保持尺寸一致。
15)用预处理好的数据集训练所设计的卷积神经网路。由于裁剪出的图像块相邻之间基本都来自于同一张图像,因此将图像块的顺序随机打乱后再输入的网络中进行训练。训练好卷积神经网络后,将低分辨率的深度图和对应的彩色图输入到训练好的网络中,在输出层输出完成超分辨率后的深度图。
2)参阅图2,其为本发明提出的对高分辨率彩色图像的预处理过程。
用Ih表示由高分辨率彩色图得到的灰度图,用来作为引导用的高分辨率强度图。由于在深度图的超分辨率中,对应的高分辨率彩色图中的有用信息只有与深度图纹理对应的部分,因此包含了许多多余的边缘信息。在神经网络中,从深度彩色图像对提取的特征图在融合的过程中,需要逐渐地把这些多余的信息滤除掉。因此,为了缩短训练时间和提高结果质量,先将彩色图进行预处理的操作得到边缘引导图Eh。利用Canny边缘检测算子,可以从低分辨率深度图Dl中获取其中的边缘位置,也就是对应高分辨率彩色图中有用的信息的位置。由于用Canny边缘检测算子得到的边缘信息宽度只有一个像素,因此可以卷积上一个高斯模糊核扩宽边缘区域。为了使区域更大,高斯模糊核设置得比较大,因此边缘区域的值变得比较低,因此接下来进行二值化的操作,将之前的值为1的区域的宽度由1个像素值扩大为带状。为了避免引入新的边界,再次卷积一个高斯模糊核将边缘区域的边界模糊化。将高分辨率强度图Ih与边缘区域相对应的位置的值相乘,就可以将多余的信息滤除掉。为了避免图中包含太多值为0的像素点,造成能量太低,再将所有值为0的像素值正则化为128。具体过程可以表示为:
其中,G表示的是高斯卷积核,表示的是直积操作,T(·)表示的是二值化操作,其阈值为图像的最大值的0.1。
参阅图3,用4倍超分辨率时的峰值信噪比(Peak Signal to Noise Ratio,PSNR)作为评价标准来比较分别用Ih和Eh作引导训练神经网络时的收敛速度。纵轴表示的是峰值信噪比的大小,横轴表示的是迭代次数。由表可知,对高分辨率彩色图作预处理得到高分辨率边缘引导图Eh,可以对结果质量和网络训练速度都有提升。
2)参阅图4,其为本发明设计的深度卷积神经网络的网络结构图。由于输入数据为彩色图和低分辨率的深度图,因此网络结构为两路。因为低分辨率的深度图尺寸已经和高分辨率的深度图尺寸一样,因此可以将网络设计成全卷积形式,每个卷积层的步长都设为1,这样网络的输入、每一层的特征图以及输出都保持尺寸一致。该提出的网络在高分辨率彩色图的引导下,可以学习低分辨率深度图和高分辨率深度图之间一个端到端的映射,该映射可以表示为:
Dh=F(Dl,Gh,{W,b})+Dl (2)
其中,Dh表示高分辨率深度图,Dl表示低分辨率深度图,Gh表示用来做引导的由对应的高分辨率彩色图得到的强度图,F(·)代表要学习的映射,W和b分别表示卷积神经网络中的权重和偏置。具体的,该网络可以分为三个部分:特征提取部分、映射和融合部分、重建部分。
21)特征提取部分:此部分为神经网络的输入部分。神经网络的输入为双三次插值方法得到的与目标尺寸相同的低分辨率深度图Dl和对应的高分辨率彩色图得到的强度图Gh。在提出的网络中,两个分支的第一层分别将输入的Dl和Gh分解成一组特征图,该过程用公式表示为:
F1(Y)=σ(W1*Y+b1) (3)
其中,*表示卷积操作,Y表示Dl或者Gh,σ表示激活函数,网络中应用的是纠正线性单元(Rectified Linear Unit,ReLU)激活函数,这样能获得很好的结果,同时能够获得更快的收敛速度。
22)映射和融合部分:映射和融合的步骤对输出的结果的好坏影响是最大的。网络中的主分支上的每一层在引导分支上都有一个相对应的层。为了充分利用Gh和Dh之间的关联信息,把这些相对应的层在网络中都合并起来,并且是每一级都建立这样的连接,这样就有足够的空间可以把高分辨率彩色图的有用信息融合进来。这一部分可以表示为:
其中,k={1,2,3,...,9},也就是说,网络中包含9对这样的连接。
23)重建部分:经过前面的部分可以得到一些列的Dl和Gh的特征图,同时这些特征图随着网络的深度逐渐地融合。重建部分将这些特征图结合起来,恢复出低分辨率深度图Dl和高分辨率深度图Dh之间的残差信息。将得到的残差信息加到Dl上,就可以得到输出Dh。重建部分可以表示为:
Dh=σ(Wr*Fr-1+br)+Dl (5)
其中,r=10。
24)所提出的深度卷积神经网络不需要经过预训练与后期微调参数就能够达到很好的结果。训练该网络的时候使用的损失函数为均方差函数,表示如下:
其中,Θ=(W,b)表示的是网络中的参数,代表的是高分辨率深度图的真值。训练过程中,用随机梯度下降的方法来最小化损失函数。
3)训练完网络后,可以用训练好的网络模型对深度图进行超分辨率操作。下表是本发明与其他几种方法的超分辨率结果比较,实验数据为Middlebury数据集中的四张深度图,衡量标准为均方根误差(root-mean-square error,RMSE)。
表1 四种方法深度图超分辨率结果比较
可以看到,本发明的方法基本可以得到具有更小的均方根误差的结果。
参阅图5和图6,其为输出结果对比图,其中,左边是彩色图像和参考标准,(a)是广义总变差(TGV)方法,(b)是联合强度和深度(JID)方法,(c)是本发明中使用高分辨率强度图Ih的结果,(d)是本发明中使用高分辨率边缘引导图Eh的结果。
Claims (3)
1.一种基于深度学习的深度图超分辨率方法,其特征是,包括下列步骤:
1)从公共数据集中选取一定数量的纹理丰富的深度图和与之对应的彩色图,将每对深度彩色图像命名一致;
2)数据增强:将每一对图片都进行旋转90°,180°和270°的操作,图片数量增大为原来的4倍;
3)将得到的深度彩色图像对进行数据预处理:首先将深度图进行下采样后,再利用双三次插值方法将图像恢复到原来大小的尺寸,得到低分辨率的深度图;其中,需要将图片裁剪成128×128的小块,裁剪过程中步长设定为100,分别对原深度图,彩色图和低分辨率的深度图进行裁剪,三种类型的图像块命名都一一对应;其中从彩色图和低分辨率的深度图裁剪出来的图像块作为训练卷积神经网络的输入数据,从原深度图裁剪出来的图像块作为训练卷积神经网络的数据标签,也就是真值;特别的,对彩色图做相关处理,即利用Canny边缘检测算子获取低分辨率的深度图的边缘区域,利用高斯核模糊平滑这些区域的边缘以后,只保留对应的彩色图的这些区域的内容;
用Ih表示由高分辨率彩色图得到的灰度图,先将彩色图进行预处理的操作得到边缘引导图Eh。利用Canny边缘检测算子,从低分辨率深度图Dl中获取其中的边缘位置,也就是对应高分辨率彩色图中有用的信息的位置,由于用Canny边缘检测算子得到的边缘信息宽度只有一个像素,因此卷积上一个高斯模糊核扩宽边缘区域,接下来进行二值化的操作,将之前的值为1的区域的宽度由1个像素值扩大为带状,为了避免引入新的边界,再次卷积一个高斯模糊核将边缘区域的边界模糊化,将高分辨率强度图Ih与边缘区域相对应的位置的值相乘,将多余的信息滤除掉;
4)设计深度卷积神经网络结构:网络结构为两路,将网络设计成全卷积形式,每个卷积层的步长都设为1,这样网络的输入、每一层的特征图以及输出都保持尺寸一致;
卷积神经网络在高分辨率彩色图的引导下,学习低分辨率深度图和高分辨率深度图之间一个端到端的映射,该映射表示为:
Dh=F(Dl,Gh,{W,b})+Dl (2)
其中,Dh表示高分辨率深度图,Dl表示低分辨率深度图,Gh表示用来做引导的由对应的高分辨率彩色图得到的强度图,F(·)代表要学习的映射,W和b分别表示卷积神经网络中的权重和偏置,具体的,该网络可以分为三个部分:特征提取部分、映射和融合部分、重建部分;
训练该网络的时候使用的损失函数为均方差函数,表示如下:
其中,Θ=(W,b)表示的是网络中的参数,代表的是高分辨率深度图的真值。训练过程中,用随机梯度下降的方法来最小化损失函数;
5)用预处理好的数据集训练所设计的卷积神经网路,训练好卷积神经网络后,将低分辨率的深度图和对应的彩色图输入到训练好的网络中,在输出层输出完成超分辨率后的深度图。
2.如权利要求1所述的基于深度学习的深度图超分辨率方法,其特征是,步骤3)将得到的深度彩色图像对进行数据预处理中,为了避免图中包含太多值为0的像素点,造成能量太低,再将所有值为0的像素值正则化为128,具体过程表示为:
其中,G表示的是高斯卷积核,表示的是直积操作,T(·)表示的是二值化操作,其阈值为图像的最大值的0.1。
3.如权利要求1所述的基于深度学习的深度图超分辨率方法,其特征是,步骤4)中具体地:
41)特征提取部分:此部分为神经网络的输入部分。神经网络的输入为双三次插值方法得到的与目标尺寸相同的低分辨率深度图Dl和对应的高分辨率彩色图得到的强度图Gh,在提出的网络中,两个分支的第一层分别将输入的Dl和Gh分解成一组特征图,该过程用公式表示为:
F1(Y)=σ(W1*Y+b1) (3)
其中,*表示卷积操作,Y表示Dl或者Gh,σ表示激活函数,网络中应用的是纠正线性单元ReLU(Rectified Linear Unit)激活函数,这样能获得很好的结果,同时能够获得更快的收敛速度;
42)映射和融合部分:网络中的主分支上的每一层在引导分支上都有一个相对应的层,为了充分利用Gh和Dh之间的关联信息,把这些相对应的层在网络中都合并起来,并且是每一级都建立这样的连接,这样就有足够的空间可以把高分辨率彩色图的有用信息融合进来,这一部分表示为:
其中,k={1,2,3,...,9},也就是说,网络中包含9对这样的连接;
43)重建部分:经过前面的部分可以得到一些列的Dl和Gh的特征图,同时这些特征图随着网络的深度逐渐地融合,重建部分将这些特征图结合起来,恢复出低分辨率深度图Dl和高分辨率深度图Dh之间的残差信息,将得到的残差信息加到Dl上,就可以得到输出Dh,重建部分表示为:
Dh=σ(Wr*Fr-1+br)+Dl (5)。
其中,r=10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810089756.6A CN108492248A (zh) | 2018-01-30 | 2018-01-30 | 基于深度学习的深度图超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810089756.6A CN108492248A (zh) | 2018-01-30 | 2018-01-30 | 基于深度学习的深度图超分辨率方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108492248A true CN108492248A (zh) | 2018-09-04 |
Family
ID=63343936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810089756.6A Pending CN108492248A (zh) | 2018-01-30 | 2018-01-30 | 基于深度学习的深度图超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108492248A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109257523A (zh) * | 2018-10-19 | 2019-01-22 | 江西财经大学 | 一种医学图像处理装置及图像处理方法 |
CN109658352A (zh) * | 2018-12-14 | 2019-04-19 | 深圳市商汤科技有限公司 | 图像信息的优化方法及装置、电子设备和存储介质 |
CN110087092A (zh) * | 2019-03-11 | 2019-08-02 | 西安电子科技大学 | 基于图像重构卷积神经网络的低码率视频编解码方法 |
CN110197464A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学 | 深度相机深度图实时去噪方法和装置 |
CN110223230A (zh) * | 2019-05-30 | 2019-09-10 | 华南理工大学 | 一种多前端深度图像超分辨率系统及其数据处理方法 |
CN110223224A (zh) * | 2019-04-29 | 2019-09-10 | 杰创智能科技股份有限公司 | 一种基于信息过滤网络的图像超分辨实现算法 |
CN110288524A (zh) * | 2019-05-09 | 2019-09-27 | 广东启迪图卫科技股份有限公司 | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 |
CN110348319A (zh) * | 2019-06-18 | 2019-10-18 | 武汉大学 | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 |
CN110490797A (zh) * | 2019-07-05 | 2019-11-22 | 苏州江奥光电科技有限公司 | 一种基于双流深层卷积网络的深度图像超分辨率重建方法 |
CN110728219A (zh) * | 2019-09-29 | 2020-01-24 | 天津大学 | 基于多列多尺度图卷积神经网络的3d人脸生成方法 |
CN110766609A (zh) * | 2019-08-29 | 2020-02-07 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN111275618A (zh) * | 2020-01-12 | 2020-06-12 | 杭州电子科技大学 | 一种基于双支感知的深度图超分辨率重建网络构建方法 |
CN111275055A (zh) * | 2020-01-21 | 2020-06-12 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像处理方法及装置 |
CN111476740A (zh) * | 2020-04-28 | 2020-07-31 | 北京大米未来科技有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN111553837A (zh) * | 2020-04-28 | 2020-08-18 | 武汉理工大学 | 一种基于神经风格迁移的艺术文本图像生成方法 |
CN111667407A (zh) * | 2020-05-18 | 2020-09-15 | 武汉大学 | 一种深度信息引导的图像超分辨率方法 |
CN112001914A (zh) * | 2020-08-31 | 2020-11-27 | 三星(中国)半导体有限公司 | 深度图像补全的方法和装置 |
CN112489103A (zh) * | 2020-11-19 | 2021-03-12 | 北京的卢深视科技有限公司 | 一种高分辨率深度图获取方法及系统 |
CN112767294A (zh) * | 2021-01-14 | 2021-05-07 | Oppo广东移动通信有限公司 | 深度图像的增强方法、装置、电子设备以及存储介质 |
WO2021129107A1 (zh) * | 2019-12-25 | 2021-07-01 | 支付宝(杭州)信息技术有限公司 | 深度人脸图像的生成方法、装置、电子设备及介质 |
CN113658089A (zh) * | 2021-09-09 | 2021-11-16 | 南开大学 | 一种基于深度相机的双数据流融合物体识别方法 |
CN113850719A (zh) * | 2021-06-16 | 2021-12-28 | 北京大学 | 基于联合隐式图像函数的rgb图像引导深度图超分辨率方法 |
CN114174854A (zh) * | 2019-08-07 | 2022-03-11 | 华为技术有限公司 | 飞行时间深度增强 |
CN117474763A (zh) * | 2023-12-26 | 2024-01-30 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117970618A (zh) * | 2024-03-28 | 2024-05-03 | 西北工业大学 | 一种动态高分辨率表面等离子体共振全息显微成像方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358576A (zh) * | 2017-06-24 | 2017-11-17 | 天津大学 | 基于卷积神经网络的深度图超分辨率重建方法 |
CN107507134A (zh) * | 2017-09-21 | 2017-12-22 | 大连理工大学 | 基于卷积神经网络的超分辨率方法 |
-
2018
- 2018-01-30 CN CN201810089756.6A patent/CN108492248A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358576A (zh) * | 2017-06-24 | 2017-11-17 | 天津大学 | 基于卷积神经网络的深度图超分辨率重建方法 |
CN107507134A (zh) * | 2017-09-21 | 2017-12-22 | 大连理工大学 | 基于卷积神经网络的超分辨率方法 |
Non-Patent Citations (2)
Title |
---|
JINGYU YANG ET AL: ""Depth Super-Resolution via Fully Edge-Augmented Guidance"", 《VCIP 2017》 * |
李素梅 等: "基于卷积神经网络的深度图超分辨率重建", 《光学学报》 * |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109257523A (zh) * | 2018-10-19 | 2019-01-22 | 江西财经大学 | 一种医学图像处理装置及图像处理方法 |
CN109658352A (zh) * | 2018-12-14 | 2019-04-19 | 深圳市商汤科技有限公司 | 图像信息的优化方法及装置、电子设备和存储介质 |
CN110087092A (zh) * | 2019-03-11 | 2019-08-02 | 西安电子科技大学 | 基于图像重构卷积神经网络的低码率视频编解码方法 |
CN110087092B (zh) * | 2019-03-11 | 2020-06-05 | 西安电子科技大学 | 基于图像重构卷积神经网络的低码率视频编解码方法 |
CN110223224A (zh) * | 2019-04-29 | 2019-09-10 | 杰创智能科技股份有限公司 | 一种基于信息过滤网络的图像超分辨实现算法 |
CN110288524A (zh) * | 2019-05-09 | 2019-09-27 | 广东启迪图卫科技股份有限公司 | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 |
CN110197464A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学 | 深度相机深度图实时去噪方法和装置 |
CN110223230A (zh) * | 2019-05-30 | 2019-09-10 | 华南理工大学 | 一种多前端深度图像超分辨率系统及其数据处理方法 |
CN110348319A (zh) * | 2019-06-18 | 2019-10-18 | 武汉大学 | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 |
CN110490797A (zh) * | 2019-07-05 | 2019-11-22 | 苏州江奥光电科技有限公司 | 一种基于双流深层卷积网络的深度图像超分辨率重建方法 |
CN114174854A (zh) * | 2019-08-07 | 2022-03-11 | 华为技术有限公司 | 飞行时间深度增强 |
CN110766609A (zh) * | 2019-08-29 | 2020-02-07 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN110766609B (zh) * | 2019-08-29 | 2023-02-10 | 王少熙 | 一种针对ToF相机的景深图超分辨率重建方法 |
CN110728219B (zh) * | 2019-09-29 | 2023-09-26 | 天津大学 | 基于多列多尺度图卷积神经网络的3d人脸生成方法 |
CN110728219A (zh) * | 2019-09-29 | 2020-01-24 | 天津大学 | 基于多列多尺度图卷积神经网络的3d人脸生成方法 |
WO2021129107A1 (zh) * | 2019-12-25 | 2021-07-01 | 支付宝(杭州)信息技术有限公司 | 深度人脸图像的生成方法、装置、电子设备及介质 |
CN111275618B (zh) * | 2020-01-12 | 2023-09-29 | 杭州电子科技大学 | 一种基于双支感知的深度图超分辨率重建网络构建方法 |
CN111275618A (zh) * | 2020-01-12 | 2020-06-12 | 杭州电子科技大学 | 一种基于双支感知的深度图超分辨率重建网络构建方法 |
TWI751593B (zh) * | 2020-01-21 | 2022-01-01 | 大陸商北京市商湯科技開發有限公司 | 網路訓練方法及裝置、圖像處理方法及裝置、電子設備、電腦可讀儲存媒體及電腦程式 |
CN111275055B (zh) * | 2020-01-21 | 2023-06-06 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像处理方法及装置 |
CN111275055A (zh) * | 2020-01-21 | 2020-06-12 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像处理方法及装置 |
CN111553837B (zh) * | 2020-04-28 | 2022-04-29 | 武汉理工大学 | 一种基于神经风格迁移的艺术文本图像生成方法 |
CN111476740A (zh) * | 2020-04-28 | 2020-07-31 | 北京大米未来科技有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN111476740B (zh) * | 2020-04-28 | 2023-10-31 | 北京大米未来科技有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN111553837A (zh) * | 2020-04-28 | 2020-08-18 | 武汉理工大学 | 一种基于神经风格迁移的艺术文本图像生成方法 |
CN111667407A (zh) * | 2020-05-18 | 2020-09-15 | 武汉大学 | 一种深度信息引导的图像超分辨率方法 |
CN111667407B (zh) * | 2020-05-18 | 2023-04-07 | 武汉大学 | 一种深度信息引导的图像超分辨率方法 |
CN112001914A (zh) * | 2020-08-31 | 2020-11-27 | 三星(中国)半导体有限公司 | 深度图像补全的方法和装置 |
CN112001914B (zh) * | 2020-08-31 | 2024-03-01 | 三星(中国)半导体有限公司 | 深度图像补全的方法和装置 |
CN112489103A (zh) * | 2020-11-19 | 2021-03-12 | 北京的卢深视科技有限公司 | 一种高分辨率深度图获取方法及系统 |
CN112489103B (zh) * | 2020-11-19 | 2022-03-08 | 北京的卢深视科技有限公司 | 一种高分辨率深度图获取方法及系统 |
CN112767294B (zh) * | 2021-01-14 | 2024-04-26 | Oppo广东移动通信有限公司 | 深度图像的增强方法、装置、电子设备以及存储介质 |
CN112767294A (zh) * | 2021-01-14 | 2021-05-07 | Oppo广东移动通信有限公司 | 深度图像的增强方法、装置、电子设备以及存储介质 |
CN113850719A (zh) * | 2021-06-16 | 2021-12-28 | 北京大学 | 基于联合隐式图像函数的rgb图像引导深度图超分辨率方法 |
CN113850719B (zh) * | 2021-06-16 | 2024-06-18 | 北京大学 | 基于联合隐式图像函数的rgb图像引导深度图超分辨率方法 |
CN113658089A (zh) * | 2021-09-09 | 2021-11-16 | 南开大学 | 一种基于深度相机的双数据流融合物体识别方法 |
CN117474763B (zh) * | 2023-12-26 | 2024-04-26 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117474763A (zh) * | 2023-12-26 | 2024-01-30 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117970618A (zh) * | 2024-03-28 | 2024-05-03 | 西北工业大学 | 一种动态高分辨率表面等离子体共振全息显微成像方法 |
CN117970618B (zh) * | 2024-03-28 | 2024-06-11 | 西北工业大学 | 一种动态高分辨率表面等离子体共振全息显微成像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108492248A (zh) | 基于深度学习的深度图超分辨率方法 | |
CN107844795B (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN108537733B (zh) | 基于多路径深度卷积神经网络的超分辨率重建方法 | |
CN107507134A (zh) | 基于卷积神经网络的超分辨率方法 | |
CN110689599B (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
CN113807355A (zh) | 一种基于编解码结构的图像语义分割方法 | |
CN112767418B (zh) | 基于深度感知的镜子图像分割方法 | |
CN112070158B (zh) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 | |
CN108491836B (zh) | 一种自然场景图像中中文文本整体识别方法 | |
CN109118432A (zh) | 一种基于快速循环卷积网络的图像超分辨率重建方法 | |
CN113240691A (zh) | 一种基于u型网络的医学图像分割方法 | |
CN109285162A (zh) | 一种基于局部区域条件随机场模型的图像语义分割方法 | |
CN106067161A (zh) | 一种对图像进行超分辨的方法 | |
CN110175986A (zh) | 一种基于卷积神经网络的立体图像视觉显著性检测方法 | |
CN106709872B (zh) | 一种快速图像超分辨率重构方法 | |
CN108470350A (zh) | 折线图中的折线分割方法及装置 | |
CN102930576A (zh) | 一种基于特征流的抽象线条画生成方法 | |
Xue et al. | Boundary-induced and scene-aggregated network for monocular depth prediction | |
CN108764250A (zh) | 一种运用卷积神经网络提取本质图像的方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN115049556A (zh) | 一种基于StyleGAN的人脸图像修复方法 | |
Chen et al. | Single depth image super-resolution using convolutional neural networks | |
Du et al. | Double-channel guided generative adversarial network for image colorization | |
CN106815879B (zh) | 一种基于lbp特征的快速纹理合成方法 | |
CN113591614B (zh) | 一种基于紧邻空间特征学习的遥感影像道路提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180904 |
|
RJ01 | Rejection of invention patent application after publication |