CN105657402B - 一种深度图恢复方法 - Google Patents

一种深度图恢复方法 Download PDF

Info

Publication number
CN105657402B
CN105657402B CN201610031320.2A CN201610031320A CN105657402B CN 105657402 B CN105657402 B CN 105657402B CN 201610031320 A CN201610031320 A CN 201610031320A CN 105657402 B CN105657402 B CN 105657402B
Authority
CN
China
Prior art keywords
mrow
depth map
depth
training
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610031320.2A
Other languages
English (en)
Other versions
CN105657402A (zh
Inventor
张永兵
沈涛
王兴政
王好谦
李莉华
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Weilai Media Technology Research Institute, Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Weilai Media Technology Research Institute
Priority to CN201610031320.2A priority Critical patent/CN105657402B/zh
Publication of CN105657402A publication Critical patent/CN105657402A/zh
Application granted granted Critical
Publication of CN105657402B publication Critical patent/CN105657402B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

本发明公开了一种深度图恢复方法,包括如下步骤:A1:由相当大数量的各类物体的深度图构成训练集;A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto‑regression)模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。

Description

一种深度图恢复方法
技术领域
本发明涉及计算机视觉技术和图像处理领域,特别涉及一种深度图恢复方法。
技术背景
本技术所属计算机视觉技术和图像处理领域。深度图是从实际拍摄的场景中获得的深度信息,它对于增加真实感、进行3D重建和3D电视的应用有着至关重要的作用。现在深度图的获取分为两种形式,一种是被动方式,另一种是主动方式。本技术所针对的主要是由深度传感器主动获得的深度图。但现在主流的主动深度传感器(如ToF相机、Kinect等)所获得的深度图,存在低像素、低信噪比等缺点,如ToF相机获得的深度图受噪点和低分辨的影响,Kinect获得的深度图有相当大的洞。这些问题都给深度图的应用造成了不便。
为了得到高质量的图像信息,目前在这方面有广泛的研究。本技术中主要涉及的问题有噪点等图像退化问题。本技术的基本前提技术包括机器学习中的深度学习技术和深度图恢复技术。深度学习技术因在图像识别、图像处理中的显著效果,近年来受到了广泛的关注。本技术中采用了深度学习的卷积神经网络结构(CNN),在有监督学习下的有着出色的分类效果,利用核分解来初始化网络权重可以对输入图像起到反卷积的作用。在目前的分类技术中,机器学习中有线性回归法、非线性回归法、BP算法、支持向量机法等,这其中包括有监督的学习和无监督的学习。但它们都各自存在一定的缺陷,并且在实际应用中效果比卷积神经网络要差很多。深度恢复技术有MRF、IMLS、Edge、JGF等方法,但使用单独的一种技术恢复的效果都不理想。
为了恢复从深度传感器获得的有缺陷的深度图,目前大都采用基于滤波器的深度图恢复方案,但是计算复杂度收敛得比较慢。卷积神经网络的一个重要特点是具有权值共享特性,这使得训练时间和计算时间显著得减少。对于为深度图退化模型而特别设计的AR模型,可以有效地针对性恢复。由于主要的深度图退化由欠采样、随机深度丢失、结构深度丢失和附加噪点污染造成,因此,只需针对这几种模型进行参数调整。带有反卷积特性的卷积神经网络可以有效地对输入的图像进行去噪处理,并由训练的网络将图像准确地分类为何种退化模型,并由相应的AR参数模型来进行深度图的恢复。
发明内容
本发明的目的是提出一种深度图恢复方法,显著提高深度图的质量,同时也简化获得深度图的方法。
为此,本发明提出的深度图恢复方法包括:A1:由各类物体的深度图构成训练集;A2:建立卷积神经网络,采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;A3:在卷积神经网络的输出层,针对可能的结果建立自回归模型,并建立评价指标;A4:将深度传感器获得的原始深度图输入卷积神经网络中,通过去噪、分类后,由自回归模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。
本发明采用了深度卷积网络来恢复从深度传感器获得的低分辨率、低信噪比的图像。利用本发明能够显著提高深度图的质量,同时也简化了获得深度图的方法。
附图说明
图1是本发明实施例流程示意图。
具体实施方式
本实施例深度图建立训练集,对训练卷积神经网络的参数结构,使得CNN能够对退化的深度图进行分类。利用核分解的方式,初始化CNN结构中的隐藏层,使得CNN结构具有反卷积特性,在分类的同时起到去噪、滤波的作用,部分解决了深度图的退化问题。建立AR模型,并根据主要的退化模型分别对AR模型进行参数的调整。将CNN的输出层和AR模型的输入层建立联系,将CNN对应的输出结果输入到AR模型中。
本实施例所提出的一种基于卷积神经网络和自回归模型的深度图恢复方法包括如下步骤:
A1:由相当大数量的各类物体的深度图构成训练集;规模可以考虑在1万张深度图左右,也可以更多,因为越大的训练数据其测试结果更好,但其训练时间也会因此加大,在一定训练量之后其性能的提升比较有限,对于一般的工作站或者服务器综合考虑性能和时间,从公共训练集选出一万张左右深度图比较合适;
A2:建立卷积神经网络(CNN),采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重。
A3:在CNN的输出层,针对可能的结果建立自回归(AR,auto-regression)模型,并建立评价指标;
A4:将深度传感器获得的原始深度图输入CNN中,通过去噪、分类后,由AR模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环。
在具体的实施方案中,可按下面方式操作。需注意的是,在下面的实施过程中所述的具体方法(如核分离法、有监督学习算法等)都仅为例举说明,本发明所涵盖的范围不局限于所例举的这些方法。
A1:用于训练和测试的各类物体的深度图,可以由深度传感器获得,也可以由网络获得,但是必须具有所属于何种深度图退化的标签,这在之后的有监督学习中至关重要。对于单张图像而言,可能存在受多种退化模型综合影响的情况(包括例如:1、由于下采样(刻意减少图像分辨率)而造成的退化;2、随机深度信息丢失(一种随机误差);3、结构深度信息丢失;4、附加噪点导致的深度图退化;5、其他由于深度相机系统误差导致的深度图退化),但是对于我们的训练集中的深度图选取应尽量只受单一退化因素的影响,否则会影响训练的正确性以及分类的正确性。
其中,关于“所属于何种深度图退化的标签”解释如下:有监督的机器学习和无监督的机器学习最大的区别在于有没有前期的人工干预,也就是定义标签。有监督的学习通过标签对输出值(预测值)进行分类,在此次对四种深度图退化的原因分别建模,因此需要首先定义这四个标签,然后才能通过机器学习分类。
A2:建立具有反卷积特性的卷积神经网络,首先,先建立卷积神经网络的模型,
h3=W3*h2;hl=σ(Wl*hl-1+bl-1),l∈{1,2};
其中,h0为输入层,h3为输出层,hl为隐藏层,这里有两个隐藏层,分别为h1和h2。Wl表示从l-1层到l层的映射系数,bl-1是一个偏移向量,σ(·)是logistic函数,即,在自变量为x时,因变量
为了在CNN中增加一个反卷积结构用于图像的去噪,将一个1×1×38的核(此处的“核”表示核矩阵。核矩阵是样本之间通过核函数影射之后得到的,每两个样本之间进行一次核函数影射。简单的说,是一个从一个维度映射到另一个维度的映射矩阵)进行核分解(分解方式下述),得到38个121×1和38个1×121的一维核。通过38个121×1的一维核得到第一个隐藏层h1的初始权重,用38个1×121的一维核得到第二个隐藏层h2的初始权重,并在隐藏层h1和h2之间建立映射关系。
其中,核分解的方式有很多种,比如SVD法,此处的分解正是用了这种方法,SVD(singular value decomposition),即奇异值分解,是一种比较常用的数学方法。
在建立起网络结构的情况下,训练网络权重(训练方法下述),进行有监督的学习训练。得到主要的四种深度图退化模型分类网络(包括:1、由于下采样(刻意减少图像分辨率)而造成的退化;2、随机深度信息丢失(一种随机误差);3、结构深度信息丢失;4、附加噪点导致的深度图退化)。
其中,训练权重的方法可以由以下方法执行:初始的权重使用随机给定的方式,对每个权值赋一个较小的数;然后将训练图片输入网络,在网络中进行加权计算,最后输入logistic函数得到输出值,并与标签值进行比较;利用梯度下降法更新网络权值。如果logistic函数的输出值与标签值相差较大,则梯度下降法的下降梯度较大;反之,则梯度下降法的下降梯度小。对大量输入图片重复上述过程,即训练网络权重。
监督学习的意思,也就是在输入深度图像时,已经对输出结果进行了分类,所做的工作为预测输出结果在哪个分类里面。
A3:针对信号特征精心设计系数的AR模型,可以紧密地拟合深度信息,进而实现深度图的恢复。因此,参数的合理设计变得至关重要。(其具体方法就是下面的建模的过程)。
其中“精心设计”指的是在建模的工程中,对各种深度图退化的模型分别进行较为准确的建模。即,考虑不同的退化因素,设计特定的模型系数。
首先建立基于AR(auto-regression)的深度恢复模型
其中,Edata(D,D0)是数据项,使得恢复的深度图和待处理深度图保持接近,而不失真,也就是为了实现拟合。D0表示待处理的深度图,D表示经过恢复的深度图;EAR(D)是AR项,强化了AR模型在深度图恢复中的作用。这两项通过系数λ来调节。
对数据项的表示方式:
其中,x表示在深度图中的坐标信息,O表示像素点坐标的集合,Dx分别表示恢复过的深度图中x处的深度值、待处理的深度图中x处的深度值。
AR项的表示:
其中,ax,y表示深度图中x与其邻域附近y的相关系数,也就是我们要设计的系数,包含两个项,表示深度项,表示色彩项,是归一化因子。
深度项可以由初始的深度图来估计:
其中是特征的提取率,表示x处的深度值,表示x处邻域内的加权深度值。此项的作用是为了防止错误的深度预测而导致后续色彩估计的问题。
色彩项是为了防止AR模型在深度不连续的区域过拟合等错误。
控制了指数函数的衰退率,表示了从深度图中提取的特征,表示从x点的邻域中拟合的特征。通过与核Bx逐点矩阵乘法运算来计算
x表示某一点的像素值,表示对应的色度值;y表示以x为中心拟合的像素值,表示对应的色度值。
不同的退化问题,所训练出来的模型参数不同,因此需要首先训练相应的系数。
拟合的过程体现在了模型中,因为采用的AR方法是基于最小二乘法的,因此是一种线性拟合方式,也就是通过现有值来预测未来值,在模型中体现的是通过现有的信息来恢复丢失的信息,但是又通过引入系数,使得其拟合不是单纯线性拟合。
深度图的恢复:通过输入不同退化类型的深度图和其对应的原图来表示上述模型中待处理深度图和恢复的深度图,训练出了四种AR网络模型的权值,得到相应的系数。在得到这四种AR网络模型后,输入测试深度图,从CNN结构将其分类到对应的退化模型中,则输入进训练好参数的AR模型,通过,得到估计的深度图,也就是恢复的深度图。
由已知分类的四种深度图退化模型,分别进行系数的设计。AR模型的表示如下:
其中,Edata(D,D0)是数据项,使得恢复的深度图和待处理深度图一致,D0表示待处理的深度图,D表示经过恢复的深度图;EAR(D)是AR项,强化了AR模型在深度图恢复中的作用。这两项通过系数λ来调节。
数据项的表示:
其中,x表示在深度图中的坐标信息,O表示像素点坐标的集合,Dx分别表示恢复过的深度图中x处的深度值、待处理的深度图中x处的深度值。
AR项的表示:
其中,ax,y表示在x与其邻域附近y的相关系数。y∈N(x)表示在x的邻域附近的y的坐标。调整ax,y可以使用AR预测器,即本技术所使用的双边滤波器,并选取11×11大小的邻域。
得到恢复的图像由一个RMSE(root mean squared error,均方根误差)指标评价,其比较对象为首次输入的深度图,若RMSE越小则效果越好。设定一个阈值,当RMSE小于该值时,恢复的深度图满足要求。其中RMSE即为均方根误差,其计算方法为,观测值与真实值之差的平方,再对这些误差平方求和取平均,并最后开平方根。在这里的RMSE的计算为两张图的像素值做差,并对所有差值的平方求和再除以像素点个数,最后开根号得到RMSE值。
A4:将深度传感器获得的原始深度图输入CNN中,经过反卷积结构去噪,得到分类结果,并由相对应的AR模型恢复。由于实际的深度传感器获得的深度图存在多种退化因素共同作用,出现该种情况时,恢复的深度图可能仍受其他退化因此影响,在RMSE不满足条件时,将输出图像继续输入到CNN结构中迭代。设定迭代次数上限N,在N次要求内不满足则退出循环。
其中反卷积是一种滤波方式。噪点干扰的图片可以被建模为以下形式:
y=x*k
x表示为潜在的原图,k表示卷积核,就是导致该种噪点干扰的特征,y是卷积得到的结果,也就是现实中受噪点干扰的图片。在离散傅里叶变化中,x可被解得
上面反解x的过程为反卷积过程,并且实现了图像去噪。在CNN网络中加入反卷积结构,即可有效地实现去噪。
根据以上模型,通过构建CNN分类去噪网络,并对不同类型的深度退化图片分别建立恢复模型,采用AR自回归迭代的方式利用训练好的模型参数,使得输入的退化深度图得以恢复,可以有效地恢复由于深度传感器获得的深度图的退化,得到高质量的深度图,并且可以简化获得深度图的方法,因为算法上的改进可以帮助硬件(如深度相机)提升性能,而不需要更改现有的硬件。

Claims (9)

1.一种深度图恢复方法,其特征在于,所述方法包括:
A1:由各类物体的深度图构成训练集;
A2:建立卷积神经网络,采取核分离方法,获得隐藏层的参数,建立卷积网络结构,利用训练集中的深度图训练网络结构、调整网络权重;
A3:在卷积神经网络的输出层,针对所述输出层输出的结果建立自回归模型,并建立评价指标;
A4:将深度传感器获得的原始深度图输入卷积神经网络中,通过去噪、分类后,由自回归模型恢复,通过评价指标检测,若不合要求则将结果图输入A2中,直到得到高质量深度图或终止循环;
其中,在经过参数设计并且训练的卷积神经网络结构后,得到进行过矫正和去噪的深度图并且将其分类为最主要的四种退化模型中的一种,再选择相应的设计好参数的自回归模型进行深度恢复处理;所述四种退化模型为:由于下采样而造成的退化对应的模型、随机深度信息丢失造成的退化对应的模型、结构深度信息丢失造成的退化对应的模型、附加噪点导致的深度图退化对应的模型。
2.如权利要求1所述的深度图恢复方法,其特征在于,所述步骤A1中各类物体的深度图是用于训练和测试的,构成训练集的方法包括:用数据集来对各类物体的细节进行拟合,深度学习对数据集进行分层处理,由像素组成基础单元,再由基础单元组成图像细节,图像细节描绘出图像。
3.如权利要求2所述的深度图恢复方法,其特征在于,所述步骤A1中还包括的如下步骤:对图像的每层进行分类和识别,并对每层图像进行拟合,通过大量图像集合的数据集的训练,以有效地去噪。
4.如权利要求1所述的方法,其特征在于,所述步骤A2中通过以下几步建立卷积神经网络:
建立卷积神经网络的模型,h3=W3*h2;hl=σ(Wl*hl-1+bl-1),l∈{1,2};其中,表示输入的内容,h0为输入层,h3为输出层,hl为隐藏层,hl‐1表示隐藏层hl的前一层,Wl表示从l-1层到l层的映射系数,W3表示从第2层网络到第3层网络的映射系数,bl-1是一个偏移向量,σ(·)是logistic函数;
通过一个1×1×38的核进行核分解,得到38个121×1和38个1×121的一维核;通过38个121×1的一维核得到第一个隐藏层h1,用38个1×121的一维核得到第二个隐藏层h2
训练网络权重,进行有监督的学习训练,得到主要的四种深度图退化模型分类。
5.如权利要求1所述的方法,其特征在于,所述步骤A3中的建立自回归模型包括如下步骤:
对于自回归模型,针对信号特征设计的系数紧密地拟合深度信息,进行深度图的恢复;由已知分类的四种深度图退化模型,分别进行系数的设计。
6.如权利要求1所述的方法,其特征在于,自回归模型的表示如下:
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>D</mi> </munder> <msub> <mi>E</mi> <mrow> <mi>d</mi> <mi>a</mi> <mi>t</mi> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>D</mi> <mo>,</mo> <msup> <mi>D</mi> <mn>0</mn> </msup> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;lambda;E</mi> <mrow> <mi>A</mi> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>D</mi> <mo>)</mo> </mrow> </mrow>
其中,Edata(D,D0)是数据项,使得恢复的深度图和待处理深度图一致,D0表示待处理的深度图,D表示经过恢复的深度图;EAR(D)是自回归项,强化了自回归模型在深度图恢复中的作用;这两项通过系数λ来调节;
数据项的表示:
<mrow> <msub> <mi>E</mi> <mrow> <mi>d</mi> <mi>a</mi> <mi>t</mi> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>D</mi> <mo>,</mo> <msup> <mi>D</mi> <mn>0</mn> </msup> <mo>)</mo> </mrow> <mover> <mo>=</mo> <mi>&amp;Delta;</mi> </mover> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>&amp;Element;</mo> <mi>O</mi> </mrow> </munder> <msup> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>x</mi> </msub> <mo>-</mo> <msubsup> <mi>D</mi> <mi>x</mi> <mn>0</mn> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>
其中,x表示在深度图中的坐标信息,O表示像素点坐标的集合,Dx分别表示恢复过的深度图中x处的深度值、待处理的深度图中x处的深度值;
自回归项的表示:
<mrow> <msub> <mi>E</mi> <mrow> <mi>A</mi> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>D</mi> <mo>)</mo> </mrow> <mover> <mo>=</mo> <mi>&amp;Delta;</mi> </mover> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <msup> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>x</mi> </msub> <mo>-</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>&amp;Element;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> </munder> <msub> <mi>a</mi> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> </msub> <msub> <mi>D</mi> <mi>y</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>
其中,y表示坐标x的邻域中的一个像素点的坐标,N(x)表示坐标x的邻域,ax,y表示深度图中坐标x和坐标y的相关系数,Dy表示深度图中坐标y处的深度值。
7.如权利要求1所述的方法,其特征在于,用于训练和测试的各类物体的深度图,可以由深度传感器获得,也可以由网络获得,但是必须具有所属于何种深度图退化的标签。
8.如权利要求1所述的方法,其特征在于,训练权重的方法为:初始的权重使用随机给定的方式,对每个权值赋一个较小的数;然后将训练图片输入网络,在网络中进行加权计算,最后输入logistic函数得到输出值,并与标签值进行比较;利用梯度下降法更新网络权值,如果logistic函数的输出值与标签值相差较大,则梯度下降法的下降梯度较大;反之,则梯度下降法的下降梯度小,对大量输入图片重复上述训练权重的过程,即训练网络权重。
9.如权利要求1所述的方法,其特征在于,得到恢复的图像由一个均方根误差指标评价,其比较对象为首次输入的深度图,若均方根误差越小则效果越好。
CN201610031320.2A 2016-01-18 2016-01-18 一种深度图恢复方法 Active CN105657402B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610031320.2A CN105657402B (zh) 2016-01-18 2016-01-18 一种深度图恢复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610031320.2A CN105657402B (zh) 2016-01-18 2016-01-18 一种深度图恢复方法

Publications (2)

Publication Number Publication Date
CN105657402A CN105657402A (zh) 2016-06-08
CN105657402B true CN105657402B (zh) 2017-09-29

Family

ID=56486892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610031320.2A Active CN105657402B (zh) 2016-01-18 2016-01-18 一种深度图恢复方法

Country Status (1)

Country Link
CN (1) CN105657402B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2811463B1 (en) 2013-06-04 2018-11-21 Dassault Systèmes Designing a 3d modeled object with 2d views
EP2874118B1 (en) 2013-11-18 2017-08-02 Dassault Systèmes Computing camera parameters
EP3188033B1 (en) 2015-12-31 2024-02-14 Dassault Systèmes Reconstructing a 3d modeled object
CN106157307B (zh) * 2016-06-27 2018-09-11 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
EP4131172A1 (en) * 2016-09-12 2023-02-08 Dassault Systèmes Deep convolutional neural network for 3d reconstruction of a real object
CN106530256A (zh) * 2016-11-18 2017-03-22 四川长虹电器股份有限公司 一种基于改进深度学习的智能相机图像盲超分辨率系统
EP3343502B1 (en) * 2016-12-28 2019-02-20 Dassault Systèmes Depth sensor noise
CN106612427B (zh) * 2016-12-29 2018-07-06 浙江工商大学 一种基于卷积神经网络的时空一致性深度图序列的生成方法
WO2018119807A1 (zh) * 2016-12-29 2018-07-05 浙江工商大学 一种基于卷积神经网络的时空一致性深度图序列的生成方法
CN108573474B (zh) * 2017-03-10 2021-11-16 南京大学 一种采用逆卷积运算的光声图像优化方法
TWI636427B (zh) * 2017-05-31 2018-09-21 鈺立微電子股份有限公司 對應影像擷取裝置的深度圖品質的驗證方法及其驗證系統
WO2018223275A1 (zh) * 2017-06-06 2018-12-13 深圳先进技术研究院 基于深度卷积网的一维部分傅里叶并行磁共振成像方法
CN107767413B (zh) * 2017-09-20 2020-02-18 华南理工大学 一种基于卷积神经网络的图像深度估计方法
CN107992848B (zh) * 2017-12-19 2020-09-25 北京小米移动软件有限公司 获取深度图像的方法、装置及计算机可读存储介质
CN108520535B (zh) * 2018-03-26 2022-02-15 天津大学 基于深度恢复信息的物体分类方法
CN109658352B (zh) * 2018-12-14 2021-09-14 深圳市商汤科技有限公司 图像信息的优化方法及装置、电子设备和存储介质
CN111242929A (zh) * 2020-01-13 2020-06-05 中国科学技术大学 一种胎儿头骨形状参数测量方法、系统、设备和介质
KR102439149B1 (ko) 2021-03-04 2022-08-31 동아대학교 산학협력단 흐릿함 정도 평가기 및 이를 이용한 안개 밀도 추정 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663712B (zh) * 2012-04-16 2014-09-17 天津大学 基于飞行时间tof相机的深度计算成像方法
CN102722863B (zh) * 2012-04-16 2014-05-21 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN103218771B (zh) * 2013-03-07 2015-09-23 天津大学 基于自回归模型深度恢复的参数自适应选取方法
CN103544705B (zh) * 2013-10-25 2016-03-02 华南理工大学 一种基于深度卷积神经网络的图像质量测试方法
CN103955702B (zh) * 2014-04-18 2017-02-15 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN103971342B (zh) * 2014-05-21 2017-11-03 厦门美图之家科技有限公司 一种基于卷积神经网络的图像噪点检测方法
CN104361328B (zh) * 2014-11-21 2018-11-02 重庆中科云丛科技有限公司 一种基于自适应多列深度模型的人脸图像正规化方法
CN104408692A (zh) * 2014-11-25 2015-03-11 南京信息工程大学 一种基于深度学习的图像模糊模型参数分析方法
CN105096279A (zh) * 2015-09-23 2015-11-25 成都融创智谷科技有限公司 一种基于卷积神经网络的数字图像处理方法

Also Published As

Publication number Publication date
CN105657402A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
CN105657402B (zh) 一种深度图恢复方法
CN111369563B (zh) 一种基于金字塔空洞卷积网络的语义分割方法
CN108510485B (zh) 一种基于卷积神经网络的无参照图像质量评估方法
CN110532859B (zh) 基于深度进化剪枝卷积网的遥感图像目标检测方法
CN104537647B (zh) 一种目标检测方法及装置
CN105069825B (zh) 基于深度置信网络的图像超分辨率重建方法
CN106157319B (zh) 基于卷积神经网络的区域和像素级融合的显著性检测方法
CN104182772B (zh) 一种基于深度学习的手势识别方法
Zhang et al. Hierarchical feature fusion with mixed convolution attention for single image dehazing
CN107341518A (zh) 一种基于卷积神经网络的图像分类方法
CN107437092A (zh) 基于三维卷积神经网络的视网膜oct图像的分类算法
CN107808132A (zh) 一种融合主题模型的场景图像分类方法
CN108491849A (zh) 基于三维稠密连接卷积神经网络的高光谱图像分类方法
CN106981080A (zh) 基于红外图像和雷达数据的夜间无人车场景深度估计方法
CN110570363A (zh) 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法
CN106204499A (zh) 基于卷积神经网络的单幅图像去雨方法
CN108710893B (zh) 一种基于特征融合的数字图像相机源模型分类方法
CN105955708A (zh) 一种基于深度卷积神经网络的体育视频镜头分类方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
CN110097090A (zh) 一种基于多尺度特征融合的图像细粒度识别方法
CN106339984A (zh) 基于k均值驱动卷积神经网络的分布式图像超分辨方法
CN111047543A (zh) 图像增强方法、装置和存储介质
CN109685772B (zh) 一种基于配准失真表示的无参照立体图像质量评估方法
CN109740451A (zh) 基于重要性加权的道路场景图像语义分割方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant