CN110969651B - 3d景深估计方法、装置及终端设备 - Google Patents
3d景深估计方法、装置及终端设备 Download PDFInfo
- Publication number
- CN110969651B CN110969651B CN201811151734.4A CN201811151734A CN110969651B CN 110969651 B CN110969651 B CN 110969651B CN 201811151734 A CN201811151734 A CN 201811151734A CN 110969651 B CN110969651 B CN 110969651B
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- neural network
- network model
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000003062 neural network model Methods 0.000 claims abstract description 109
- 238000012549 training Methods 0.000 claims description 126
- 230000006870 function Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例适用于计算机视觉技术领域,公开了一种3D景深估计方法、装置、终端设备及计算机可读存储介质,其中,方法包括:获取待估计2D图像;通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像;根据预训练的景深估计解码器神经网络模型、显著性特征图像以及待估计2D图像,得到待估计2D图像的3D景深估计结果。本发明实施例通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像,再基于显著性特征图像和预训练的景深估计解码器神经网络模型,得到3D景深估计结果,利用待估计2D图像中的显著性特征,为景深估计提供更准确的特征,从而提高了2D图像的3D景深估计结果的准确率。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种3D景深估计方法、装置、终端设备及计算机可读存储介质。
背景技术
基于2D图像做稠密三维重建相关一直是计算机视觉领域重要的研究方向之一,对于三维重建、HCI、AR、导航等应用都有比较大的帮助。
目前,基于单目2D图像进行深度估计的方法一般有基于图像内容理解、基于聚焦、基于明暗变化等,但这些方法整体来说很难获得比较精确的深度信息,同时由于计算法复杂度比较高,很难再实际场景中应用。另一种目前比较普遍的方法是利用深度信息的基本特征进行深度估计,该基本特征指的师图片中的点与点之间的是有相对远近关系的。该方法具体通过在每张图片中标注两个随机点之间的相对远近关系,通过一个神经网络的训练得到原图中的相对深度信息。但是,这种方法所得到的相对深度信息仅仅是表示当前图片中物体的远近关系,与真实深度信息有很大的区别,从而导致2D图像的3D景深估计准确率较低。
发明内容
有鉴于此,本发明实施例提供一种3D景深估计方法、装置、终端设备及计算机可读存储介质,以解决现有技术中2D图像的3D景深估计准确率低的问题。
本发明实施例的第一方面提供了一种3D景深估计方法,包括:
获取待估计2D图像;
通过预训练的编码器神经网络模型,得到所述待估计2D图像的显著性特征图像;
根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果。
可选地,在所述根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果之后,还包括:
对所述3D景深估计结果进行滤波操作,并将所述3D景深估计结果与所述待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
可选地,在所述获取待估计2D图像之前,还包括:
利用第一训练数据集和欧氏距离损失函数,训练所述编码器神经网络模型;
利用第二训练数据集和排序损失函数,训练所述编码器神经网络模型,并利用随机梯度下降算法优化所述编码器神经网络模型的网络参数;
利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型。
可选地,利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型,包括:
利用所述第一训练数据集,根据第一预设学习率,训练所述景深估计解码器神经网络模型,并每当训练步数达到第一预设训练步数后,以第一预设衰减系数进行线性衰减;
利用所述第二训练数据集,根据第二学习率和第二预设训练步数,训练所述景深估计解码器神经网络模型。
可选地,所述根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果,包括:
将所述待估计2D图像和所述显著性特征图像输入至所述景深估计解码器神经网络模型,得到所述景深估计解码器神经网络模型的输出结果,所述输出结果为所述3D景深估计结果。
本发明实施例的第二方面提供了一种3D景深估计装置,包括:
获取模块,用于获取待估计2D图像;
显著性特征图像生成模块,用于通过预训练的编码器神经网络模型,得到所述待估计2D图像的显著性特征图像;
3D景深估计模块,用于根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果。
可选地,还包括:
去噪模块,用于对所述3D景深估计结果进行滤波操作,并将所述3D景深估计结果与所述待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
可选地,还包括:
第一训练模块,用于利用第一训练数据集和欧氏距离损失函数,训练所述编码器神经网络模型;
第二训练模块,用于利用第二训练数据集和排序损失函数,训练所述编码器神经网络模型,并利用随机梯度下降算法优化所述编码器神经网络模型的网络参数;
第三训练模块,用于利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型。
在本发明的一些实施例中,上述第三训练模块可以包括:
第一训练单元,用于利用第一训练数据集,根据第一预设学习率,训练景深估计解码器神经网络模型,并每当训练步数达到第一预设训练步数后,以第一预设衰减系数进行线性衰减;
第二训练单元,用于利用第二训练数据集,根据第二学习率和第二预设训练步数,训练景深估计解码器神经网络模型。
在本发明的一些实施例中,上述3D景深估计模块可以包括:
估计单元,用于将待估计2D图像和显著性特征图像输入至景深估计解码器神经网络模型,得到景深估计解码器神经网络模型的输出结果,输出结果为3D景深估计结果。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面任一项所述方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
本发明实施例通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像,再基于显著性特征图像和预训练的景深估计解码器神经网络模型,得到3D景深估计结果,利用了待估计2D图像中的显著性特征,为景深估计提供更准确的特征,从而提高了2D图像的3D景深估计结果的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种3D景深估计方法的流程示意图;
图2为本发明实施例提供的3D景深估计结果示意图;
图3为本发明实施例提供的一种3D景深估计方法的另一流程示意图;
图4为本发明实施例提供的编码器神经网络模型的架构示意图;
图5为本发明实施例提供的景深估计解码器神经网络模型的架构示意图;
图6为本发明实施例提供的步骤S303的具体流程示意图;
图7为本发明实施例提供的一种3D景深估计装置的结构示意图;
图8为本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一
请参见图1,为本发明实施例提供的一种3D景深估计方法的流程示意图,该方法可以包括以下步骤:
步骤S101、获取待估计2D图像。
步骤S102、通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像。
需要说明,上述编码器神经网络模型是预先利用训练数据集训练得到的,而所使用的训练数据集可以包括原图像和与原图像对应的显著特征图。该编码器神经网络模型可以包括输入层、卷积层、平均池化层、ReLu激活层以及输出层。
可以理解,显著性特征图像可以是基于人的眼球对图像的关注度生成的,具体可以通过眼动采集仪获得,眼动仪可以通过采集人眼视线的运动轨迹,确定图像中的哪个点容易被人关注。人眼对图像中的某个位置一直关注,在该位置的停留时间则比较长,因此,可以在人眼停留时间较长的位置处采集更多的数据,从而得到图像对应的显著性图像。而预先利用包括原图像和显著性特征图像的训练集训练编码器神经网络模型,得到训练好的编码器神经网络模型后,再利用该训练好的编码器神经网络模型,得到待估计2D图像的显著性特征图像。
步骤S103、根据预训练的景深估计解码器神经网络模型、显著性特征图像以及待估计2D图像,得到待估计2D图像的3D景深估计结果。
需要说明,上述景深估计解码器神经网络模型是预先训练得到的,训练用到的数据集也包括原图像和与原图像对应的显著性特征图像,该景深估计解码器神经网络模型可以包括输入层、卷积层、ReLu激活层以及输出层等。
具体地,可以将显著性特征图像和待估计2D图像作为景深估计解码器神经网络模型的输入,景深估计解码器神经网络模型的输出即为3D景深估计结果。故在本发明的一些实施例中,本步骤的过程可以具体为:将待估计2D图像和显著性特征图像输入至景深估计解码器神经网络模型,得到景深估计解码器神经网络模型的输出结果,输出结果为3D景深估计结果。
为了更好地介绍基于显著性特征估计的结果,下面结合图2示出的3D景深估计结果示意图进行介绍。如图2所示,给出了两组原图像和3D景深估计结果图像,其中,每一组图像中,左边为原图像,即待估计2D图像,右边为待估计2D图像依次经过编码器神经网络模型、景深估计解码器神经网络模型后,得到的3D景深估计结果。经过了编码器神经网络模型、景深估计解码器神经网络模型后,所得到的3D景深估计结果可以准确地反映出原图像的景深信息。
本实施例中,通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像,再基于显著性特征图像和预训练的景深估计解码器神经网络模型,得到3D景深估计结果,利用了待估计2D图像中的显著性特征,为景深估计提供更准确的特征,从而提高了2D图像的3D景深估计结果的准确率。
实施例二
上述实施例一中的景深估计解码器神经网络模型、编码器神经网络模型均是预先训练好的,且待估计2D图像依次经过编码器神经网络模型、景深估计解码器神经网络模型后所得出3D景深估计结果可能存在噪声,且边缘效果不明显,因此可以在得出3D景深估计结果之后,再进行去滤波去噪操作。
请参见图3,为本发明实施例提供的一种3D景深估计方法的另一流程示意图,该方法可以包括以下步骤:
步骤S301、利用第一训练数据集和欧氏距离损失函数,训练编码器神经网络模型。
步骤S302、利用第二训练数据集和排序损失函数,训练编码器神经网络模型,并利用随机梯度下降算法优化编码器神经网络模型的网络参数。
需要说明,上述第一训练数据集和第二训练数据集是预先构建好的,每一个训练数据集内均包括原始图像和与其对应的显著性标注图像。训练集中的自然图像和显著特征图像的尺寸可以是任意的,例如,可以为244*244像素。
上述编码器神经网络模型的架构可以如图4所示,图4为本发明实施例提供的编码器神经网络模型的架构示意图。图4中示出的编码器神经网络模型包括输入层,其输入的的原始图像和显著性标注图像,两个局部区域卷积块,分别为块A(Block A)和块B(Block B),而Block A具体包括卷积核为3×3的卷积、批量归一化(Batch Normalization,BN)、PeakReLu激活函数,Block B具体包括、卷积核为1×1的卷积、Peak ReLu激活函数、卷积核为3×3的卷积、卷积核为1×1的卷积。编码器神经网络模型包括依次连接的输入层、32个通道的Block A、16个通道的Block B、24个通道的Block B、32个通道的Block B、64个通道的BlockB、96个通道的Block B、128个通道的Block B、320个通道的Block B、1280个通道的BlockB、平均池化层、1280个通道的Block A以及输出层。
具体地,可以先使用第一训练数据集和欧氏距离损失函数,训练编码器神经网络模型,再利用第二训练数据集和排序损失函数训练该编码器神经网络模型。
第二训练数据集中的真值是每幅图像上的像素对的两个点的深度相对关系,其具体通过在每幅图像上取K个像素点对,并计算处每个点对的两个点的深度相对关系,具体为R={(ik,jk,rk)},k=1,...,K,其中,ik,jk表示像素点对,rk∈{+1,-1,0}表示像素点对中两个像素点的关系,ik更近时rk为+1,更远时rk为-1,两者深度相等rk为0。用z表示预测到的深度图,表示点ik、jk的深度,则上述排序函数可以具体为:其中,/>
步骤S303、利用第一训练数据集和第二训练数据集,训练景深估计解码器神经网络模型。
需要说明,上述景深估计解码器神经网络模型可以包括输入层、卷积层以及输出层。为了更好地介绍该模型的架构组成,请参见图5示出的景深估计解码器神经网络模型的架构示意图,如图5所示,该模型包括输入层、块C(Block C)以及输出层,输入层输入的是上述图4示出的编码器神经网络模型的输出结果1×1×1280的图像,Block C具体包括依次连接的卷积核为3×3的卷积、Peak ReLu激活函数、卷积核为1×1的卷积以及Peak ReLu激活函数。输出层输出的是深度估计图。
在景深估计解码器神经网络模型训练过程中,可以通过设定学习率和训练步数进行训练,以优化该神经网络模型的网络参数。
在本发明的一些实施例中,参见图6示出的步骤S303的具体流程示意图,本步骤的过程可以例如为:
步骤S601、利用第一训练数据集,根据第一预设学习率,训练景深估计解码器神经网络模型,并每当训练步数达到第一预设训练步数后,以第一预设衰减系数进行线性衰减。
步骤S602、利用第二训练数据集,根据第二学习率和第二预设训练步数,训练景深估计解码器神经网络模型。
需要说明,上述第一预设学习率、第二预设学习率、第一预设训练步数、第二预设训练步数和第一预设衰减系数可以根据实际训练需求、应用场景进行设定,在此不作限定。
而在本实施例中,上述第一预设学习率可以为0.01,第二预设学习率为0.001,第一预设训练步数为7000,第二预设训练步数为20000步,第一预设衰减系数为0.1。此时具体为,利用第一训练数据集,以0.01的学习率进行训练,且每当训练步数达到7000步后,则以0.1的衰减率进行线性衰减,一共训练20000步;然后再利用第二训练数据集,以0.001的学习率训练该景深估计解码器神经网络,一共训练20000步;最终得到所需的景深估计解码器神经网络。
步骤S304、获取待估计2D图像。
步骤S305、通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像。
步骤S306、根据预训练的景深估计解码器神经网络模型、显著性特征图像以及待估计2D图像,得到待估计2D图像的3D景深估计结果。
需要说明,上述步骤S304至S306与上述实施例一中的步骤S101至S103相同,具体可以参见上文相应内容,在此不再赘述。
步骤S307、对3D景深估计结果进行滤波操作,并将3D景深估计结果与待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
可以理解,上述滤波操作可以具体为3×3的中值滤波,也可以是其它类型的滤波操作,在此不作限定。通过去噪滤波操作后,不仅可以去除估计结果的噪声,还可以提升3D景深估计结果的边缘性。
需要说明,在得出3D景深估计结果后,也可以不进行去噪滤波操作,也能达到本发明实施例的目的。
本实施例中,通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像,再基于显著性特征图像和预训练的景深估计解码器神经网络模型,得到3D景深估计结果,利用了待估计2D图像中的显著性特征,为景深估计提供更准确的特征,从而提高了2D图像的3D景深估计结果的准确率。此外,还通过对3D景深估计结果的去噪滤波,提升了3D景深估计结果的边缘性,去除了估计结果的噪声。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例三
请参见图7,为本发明实施例提供的一种3D景深估计装置的结构示意图,该装置可以包括:
获取模块71,用于获取待估计2D图像;
显著性特征图像生成模块72,用于通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像;
3D景深估计模块73,用于根据预训练的景深估计解码器神经网络模型、显著性特征图像以及待估计2D图像,得到待估计2D图像的3D景深估计结果。
在本发明的一些实施例中,上述装置还可以包括:
去噪模块,用于对3D景深估计结果进行滤波操作,并将3D景深估计结果与待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
在本发明的一些实施例中,上述装置还可以包括:
第一训练模块,用于利用第一训练数据集和欧氏距离损失函数,训练编码器神经网络模型;
第二训练模块,用于利用第二训练数据集和排序损失函数,训练编码器神经网络模型,并利用随机梯度下降算法优化编码器神经网络模型的网络参数;
第三训练模块,用于利用第一训练数据集和第二训练数据集,训练景深估计解码器神经网络模型。
在本发明的一些实施例中,上述第三训练模块可以包括:
第一训练单元,用于利用第一训练数据集,根据第一预设学习率,训练景深估计解码器神经网络模型,并每当训练步数达到第一预设训练步数后,以第一预设衰减系数进行线性衰减;
第二训练单元,用于利用第二训练数据集,根据第二学习率和第二预设训练步数,训练景深估计解码器神经网络模型。
在本发明的一些实施例中,上述3D景深估计模块可以包括:
估计单元,用于将待估计2D图像和显著性特征图像输入至景深估计解码器神经网络模型,得到景深估计解码器神经网络模型的输出结果,输出结果为3D景深估计结果。
需要说明,本实施例与其它实施例的相同或相似之处,可相互参见,在此不再赘述。
本实施例中,通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像,再基于显著性特征图像和预训练的景深估计解码器神经网络模型,得到3D景深估计结果,利用了待估计2D图像中的显著性特征,为景深估计提供更准确的特征,从而提高了2D图像的3D景深估计结果的准确率。
实施例四
图8是本发明一实施例提供的终端设备的示意图。如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述各个3D景深估计方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图7所示模块71至73的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备8中的执行过程。例如,所述计算机程序82可以被分割成获取模块、显著性特征图像生成模块以及3D景深估计模块,各模块具体功能如下:
获取模块,用于获取待估计2D图像;
显著性特征图像生成模块,用于通过预训练的编码器神经网络模型,得到待估计2D图像的显著性特征图像;
3D景深估计模块,用于根据预训练的景深估计解码器神经网络模型、显著性特征图像以及待估计2D图像,得到待估计2D图像的3D景深估计结果。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述**装置/终端设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置、终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置、终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块或单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (9)
1.一种3D景深估计方法,其特征在于,包括:
获取待估计2D图像;
通过预训练的编码器神经网络模型,得到所述待估计2D图像的显著性特征图像;
根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果;
其中,所述根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果,包括:
将所述待估计2D图像和所述显著性特征图像输入至所述景深估计解码器神经网络模型,得到所述景深估计解码器神经网络模型的输出结果,所述输出结果为所述3D景深估计结果。
2.如权利要求1所述的方法,其特征在于,在所述根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果之后,还包括:
对所述3D景深估计结果进行滤波操作,并将所述3D景深估计结果与所述待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
3.如权利要求1或2所述的方法,其特征在于,在所述获取待估计2D图像之前,还包括:
利用第一训练数据集和欧氏距离损失函数,训练所述编码器神经网络模型;
利用第二训练数据集和排序损失函数,训练所述编码器神经网络模型,并利用随机梯度下降算法优化所述编码器神经网络模型的网络参数;
利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型。
4.如权利要求3所述的方法,其特征在于,利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型,包括:
利用所述第一训练数据集,根据第一预设学习率,训练所述景深估计解码器神经网络模型,并每当训练步数达到第一预设训练步数后,以第一预设衰减系数进行线性衰减;
利用所述第二训练数据集,根据第二学习率和第二预设训练步数,训练所述景深估计解码器神经网络模型。
5.一种3D景深估计装置,其特征在于,包括:
获取模块,用于获取待估计2D图像;
显著性特征图像生成模块,用于通过预训练的编码器神经网络模型,得到所述待估计2D图像的显著性特征图像;
3D景深估计模块,用于根据预训练的景深估计解码器神经网络模型、所述显著性特征图像以及所述待估计2D图像,得到所述待估计2D图像的3D景深估计结果;
所述3D景深估计模块具体用于:将所述待估计2D图像和所述显著性特征图像输入至所述景深估计解码器神经网络模型,得到所述景深估计解码器神经网络模型的输出结果,所述输出结果为所述3D景深估计结果。
6.如权利要求5所述的装置,其特征在于,还包括:
去噪模块,用于对所述3D景深估计结果进行滤波操作,并将所述3D景深估计结果与所述待估计2D图像进行匹配,得到去噪后的3D景深估计结果。
7.如权利要求5或6所述的装置,其特征在于,还包括:
第一训练模块,用于利用第一训练数据集和欧氏距离损失函数,训练所述编码器神经网络模型;
第二训练模块,用于利用第二训练数据集和排序损失函数,训练所述编码器神经网络模型,并利用随机梯度下降算法优化所述编码器神经网络模型的网络参数;
第三训练模块,用于利用所述第一训练数据集和所述第二训练数据集,训练所述景深估计解码器神经网络模型。
8.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151734.4A CN110969651B (zh) | 2018-09-29 | 2018-09-29 | 3d景深估计方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151734.4A CN110969651B (zh) | 2018-09-29 | 2018-09-29 | 3d景深估计方法、装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110969651A CN110969651A (zh) | 2020-04-07 |
CN110969651B true CN110969651B (zh) | 2023-07-25 |
Family
ID=70028071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811151734.4A Active CN110969651B (zh) | 2018-09-29 | 2018-09-29 | 3d景深估计方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969651B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743517A (zh) * | 2021-09-08 | 2021-12-03 | Oppo广东移动通信有限公司 | 模型训练方法、图像深度预测方法及装置、设备、介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI607412B (zh) * | 2016-09-10 | 2017-12-01 | 財團法人工業技術研究院 | 多維度尺寸量測系統及其方法 |
CN106981080A (zh) * | 2017-02-24 | 2017-07-25 | 东华大学 | 基于红外图像和雷达数据的夜间无人车场景深度估计方法 |
CN108205803B (zh) * | 2017-07-19 | 2020-12-25 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络模型的训练方法及装置 |
CN108596055B (zh) * | 2018-04-10 | 2022-02-11 | 西北工业大学 | 一种复杂背景下高分辨遥感图像的机场目标检测方法 |
-
2018
- 2018-09-29 CN CN201811151734.4A patent/CN110969651B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110969651A (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110874594B (zh) | 基于语义分割网络的人体外表损伤检测方法及相关设备 | |
CN111815754B (zh) | 一种三维信息确定方法、三维信息确定装置及终端设备 | |
WO2020119527A1 (zh) | 人体动作识别方法、装置、终端设备及存储介质 | |
CN111340077B (zh) | 基于注意力机制的视差图获取方法和装置 | |
US20200117906A1 (en) | Space-time memory network for locating target object in video content | |
CN109416727B (zh) | 一种人脸图像中眼镜去除方法及装置 | |
CN109087346B (zh) | 单目深度模型的训练方法、训练装置和电子设备 | |
CN109949219B (zh) | 一种超分辨率图像的重构方法、装置及设备 | |
CN109766925B (zh) | 特征融合方法、装置、电子设备及存储介质 | |
CN111860398B (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
CN109948441B (zh) | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN111383232A (zh) | 抠图方法、装置、终端设备及计算机可读存储介质 | |
CN114612987A (zh) | 一种表情识别方法及装置 | |
CN111488810A (zh) | 人脸识别方法、装置、终端设备及计算机可读介质 | |
CN110827341A (zh) | 一种图片深度估计方法、装置和存储介质 | |
CN113570725A (zh) | 基于聚类的三维表面重建方法、装置、服务器及存储介质 | |
CN113920023B (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN109359542B (zh) | 基于神经网络的车辆损伤级别的确定方法及终端设备 | |
CN110969651B (zh) | 3d景深估计方法、装置及终端设备 | |
CN113516697A (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
JP6842618B2 (ja) | 3dマップの作成 | |
CN110633630B (zh) | 一种行为识别方法、装置及终端设备 | |
CN111814811A (zh) | 图像信息提取方法、训练方法及装置、介质和电子设备 | |
CN109816791B (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 516006 TCL technology building, No.17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL Corp. |
|
CB02 | Change of applicant information | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40018683 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |