CN108416751A - 一种基于深度辅助全分辨率网络的新视点图像合成方法 - Google Patents
一种基于深度辅助全分辨率网络的新视点图像合成方法 Download PDFInfo
- Publication number
- CN108416751A CN108416751A CN201810189645.2A CN201810189645A CN108416751A CN 108416751 A CN108416751 A CN 108416751A CN 201810189645 A CN201810189645 A CN 201810189645A CN 108416751 A CN108416751 A CN 108416751A
- Authority
- CN
- China
- Prior art keywords
- depth
- network
- image
- input picture
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 34
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 18
- 238000013480 data collection Methods 0.000 claims description 11
- 238000002474 experimental method Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000003491 array Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 abstract description 4
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于深度辅助全分辨率网络的新视点图像合成方法,其主要内容包括:深度辅助全分辨率网络、损失函数、训练,其过程为,全分辨率网络的编码器部分先从输入图像中提取重要的局部特征,然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图,接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射,最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。本发明设计了一个全分辨率的网络,以相同的输入分辨率提取局部图像特征,防止最终合成图像中的模糊伪影,有助于获得分辨率高、质量高的图像。
Description
技术领域
本发明涉及图像合成领域,尤其是涉及了一种基于深度辅助全分辨率网络的新视点图像合成方法。
背景技术
新视点图像合成是当今计算机视觉和图像处理领域的交叉学科,是虚拟现实技术重要组成部分,在许多方面都具有广泛的应用。如基于人脸图像的新视点合成,是人脸处理中的一个重要应用领域,广泛应用于人脸识别、人脸动画等许多方面;通过输入已有人脸图像,对输入图像用相同视点下的样本进行表达,通过组合合成新视点图像,从而获取足够的人脸不同角度的图像,这将有助于为刑侦案件侦破提供更多有效的信息。在未来数字电视的研究发展中,由于与传统的单视点二维视频相比较,多视点视频与人们的视觉需求更加匹配,它能够提供丰富的立体感和沉浸感,并可以根据用户需求自由切换观看角度而广受人们喜爱。除了现有的三维电视显示技术大都离不开新视点图像合成技术,该技术与立体眼镜、立体头盔等的发展也密切相关。现有的深度卷积神经网络主要集中于提取全局高级特征,全局特征通常不受空间变换(比例、平移和旋转)的影响,全局特征预测对局部细节不变而不能对局部细节进行修改。
本发明提出了一种基于深度辅助全分辨率网络的新视点图像合成方法,全分辨率网络的编码器部分先从输入图像中提取重要的局部特征,然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图,接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射,最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。本发明设计了一个全分辨率的网络,以相同的输入分辨率提取局部图像特征,防止最终合成图像中的模糊伪影,有助于获得分辨率高、质量高的图像。
发明内容
针对全局特征预测对局部细节不变而不能对局部细节进行修改的问题,本发明的目的在于提供一种基于深度辅助全分辨率网络的新视点图像合成方法,全分辨率网络的编码器部分先从输入图像中提取重要的局部特征,然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图,接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射,最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。
为解决上述问题,本发明提供一种基于深度辅助全分辨率网络的新视点图像合成方法,其主要内容包括:
(一)深度辅助全分辨率网络;
(二)损失函数;
(三)训练。
其中,所述的深度辅助全分辨率网络,全分辨率网络的编码器部分从输入图像中提取重要的局部特征;然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图;接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射;最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。
进一步地,所述的编码器,用于提取输入图像的局部特征;编码器网络是一系列具有不同大小的卷积核,生成与输入图像具有相同分辨率的特征;修正线性单位(ReLU)层被添加在每个卷积层之后;这些特征将用于重建最终转换后的图像。
进一步地,所述的估计输入图像的深度图,将估计的预测相对深度添加为输入图像的一个特征;根据一幅图像上像素对的标记深度排序来训练深度预测网络,输出表示输入图像的相对深度;利用从图片分享网站收集并与两个随机像素的相对深度排序标记的421000个图像来训练网络;由于缺少后向训练的标定真实深度,因此只能利用这个网络的前向输出来提取输入图像的深度。
进一步地,所述的特征,使用该深度特征有四个主要优点:首先,深度是流场的一个紧密相关的特征;输入图像与新视图之间的深度z和视差D之间的关系可写为:
其中,B是两个视点之间的绝对距离,f是焦点;新视图q的视差Dq与流场Fq之间也存在明确的关系:
Fq(s)=(Dq(s)×Δu,Dq(s)×Δv) (2)
其中,Δu和Δv分别是u和v方向上视点坐标的差异;根据公式(1)和(2),深度信息对估计流场非常重要;
其次,与其他方法相比,预测图像的相对深度可以给出更清晰的对象之间的相对位置关系;
第三,用于预测深度的网络已经通过两个距离较远的像素的信息(深度顺序)进行训练,所以本网络通过涉及深度隐含地考虑了大的感知场;由于全分辨率网络保留了局部特征,因此通过收集局部和全局信息进行最终综合;
最后,用于训练深度预测器的数据集非常大,并且覆盖了大量的自然场景;
除了作为编码器部分末端的特征层连接到网络的深度图像之外,新视图的二维坐标(u,v)也被添加为具有与输入图像相同尺寸的两个层特征;这是为了将目标的视点信息提供给网络。
进一步地,所述的解码器,这部分的网络估计所有像素的密集流;在使用后向插值方法时,流场也用于处理输入中不可见的遮挡区域;该解码器部分的网络包含四个卷积层,前三个是ReLU层,后一个是Tanh层。
进一步地,所述的基于流的变形,遵循外观流和空间变换网络的思想,应用基于流的变形方法来合成最终的图像;预测流场和新视图图像之间存在明确的数学关系;对于一个新颖视图图像中的每个像素s,其像素值可以表示为:
Iq(s)=Ip[s+Fq(s)] (3)
其中,Fq(s)是神经网络输出的二维流;这里,由于在目标视图上的像素s处定义了流,所以利用反向变形将输入图像转换为新视图;由于公式(3)中描述的变形函数是可微分的,并且可以有效地计算梯度,所以网络的所有层都是可微的,并且可以以监督的方式端到端地训练整个网络。
其中,所述的损失函数,网络的目标函数C可以写成:
损失函数的第一部分是传统的图像重构误差(L1),它限制了结果Iq和标定好的真实数据之间的相似性;损失函数的第二部分是预测流场Fq的总变分正则化;在本方法中增加正则化,因为流场Fq中的总变差分约束将保证平滑并产生高数量结果;凭经验设定所有的实验中α=0.001。
其中,所述的训练,相机通过常规微透镜阵列捕捉场景的光场;由于视点之间的距离远远小于相机与场景物体之间的距离,因此假设所有视点均位于二维u-v平面中;在训练中,将中心视点中心pcenter(u,v)的位置表示为[0,0];pnovel(u,v)的范围是[-3,+3]×[-3,+3];为了充分利用数据集,所有的光场图像都有可能被选为中心视图,而其他图像的坐标则由它们相对于中心图像的相对位置决定;训练使用两个数据集进行实验和验证。
进一步地,所述的数据集,包括光场数据集和花卉数据集;光场数据集包含100个训练图像和30个测试图像,角度分辨率为8×8;此数据集包含多种场景,如汽车、花卉和树木;这是一个具有挑战性的数据集,因为它只包含有限数量的样本,而且它们的变化很复杂;花场数据集包含3433种各种花卉的光场图像,将花卉数据集随机分组,获得3233个训练样本和100个测试样本;为了权衡网络的时间和空间需求,将原始输入图像从541×376随机剪裁成320×240进行训练;使用4个小批量结果在速度和收敛性之间取得最佳平衡;在实验中,网络在12000次迭代中训练;整个实验需要将近2天的时间进行训练;使用ADAM进行优化,其中β1=0.9、β2=0.999,学习率为0.0001。
附图说明
图1是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的系统框架图。
图2是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的系统流程图。
图3是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的从光场数据集合成新视点的结果。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的系统框架图。主要包括深度辅助全分辨率网络、损失函数、训练。
深度辅助全分辨率网络包括编码器、估计输入图像的深度图、解码器和基于流的变形。
编码器用于提取输入图像的局部特征;编码器网络是一系列具有不同大小的卷积核,生成与输入图像具有相同分辨率的特征;修正线性单位(ReLU)层被添加在每个卷积层之后;这些特征将用于重建最终转换后的图像。
估计输入图像的深度图,将估计的预测相对深度添加为输入图像的一个特征;根据一幅图像上像素对的标记深度排序来训练深度预测网络,输出表示输入图像的相对深度;利用从图片分享网站收集并与两个随机像素的相对深度排序标记的421000个图像来训练网络;由于缺少后向训练的标定真实深度,因此只能利用这个网络的前向输出来提取输入图像的深度。
使用该深度特征有四个主要优点:首先,深度是流场的一个紧密相关的特征;输入图像与新视图之间的深度z和视差D之间的关系可写为:
其中,B是两个视点之间的绝对距离,f是焦点;新视图q的视差Dq与流场Fq之间也存在明确的关系:
Fq(s)=(Dq(s)×Δu,Dq(s)×Δv) (2)
其中,Δu和Δv分别是u和v方向上视点坐标的差异;根据公式(1)和(2),深度信息对估计流场非常重要;
其次,与其他方法相比,预测图像的相对深度可以给出更清晰的对象之间的相对位置关系;
第三,用于预测深度的网络已经通过两个距离较远的像素的信息(深度顺序)进行训练,所以本网络通过涉及深度隐含地考虑了大的感知场;由于全分辨率网络保留了局部特征,因此通过收集局部和全局信息进行最终综合;
最后,用于训练深度预测器的数据集非常大,并且覆盖了大量的自然场景;
除了作为编码器部分末端的特征层连接到网络的深度图像之外,新视图的二维坐标(u,v)也被添加为具有与输入图像相同尺寸的两个层特征;这是为了将目标的视点信息提供给网络。
解码器,这部分的网络估计所有像素的密集流;在使用后向插值方法时,流场也用于处理输入中不可见的遮挡区域;该解码器部分的网络包含四个卷积层,前三个是ReLU层,后一个是Tanh层。
基于流的变形,遵循外观流和空间变换网络的思想,应用基于流的变形方法来合成最终的图像;预测流场和新视图图像之间存在明确的数学关系;对于一个新颖视图图像中的每个像素s,其像素值可以表示为:
Iq(s)=Ip[s+Fq(s)] (3)
其中,Fq(s)是神经网络输出的二维流;这里,由于在目标视图上的像素s处定义了流,所以利用反向变形将输入图像转换为新视图;由于公式(3)中描述的变形函数是可微分的,并且可以有效地计算梯度,所以网络的所有层都是可微的,并且可以以监督的方式端到端地训练整个网络。
损失函数,网络的目标函数C可以写成:
损失函数的第一部分是传统的图像重构误差(L1),它限制了结果Iq和标定好的真实数据之间的相似性;损失函数的第二部分是预测流场Fq的总变分正则化;在本方法中增加正则化,因为流场Fq中的总变差分约束将保证平滑并产生高数量结果;凭经验设定所有的实验中α=0.001。
训练,相机通过常规微透镜阵列捕捉场景的光场;由于视点之间的距离远远小于相机与场景物体之间的距离,因此假设所有视点均位于二维u-v平面中;在训练中,将中心视点中心pcenter(u,v)的位置表示为[0,0];pnovel(u,v)的范围是[-3,+3]×[-3,+3];为了充分利用数据集,所有的光场图像都有可能被选为中心视图,而其他图像的坐标则由它们相对于中心图像的相对位置决定;训练使用两个数据集进行实验和验证。
数据集包括光场数据集和花卉数据集;光场数据集包含100个训练图像和30个测试图像,角度分辨率为8×8;此数据集包含多种场景,如汽车、花卉和树木;这是一个具有挑战性的数据集,因为它只包含有限数量的样本,而且它们的变化很复杂;花场数据集包含3433种各种花卉的光场图像,将花卉数据集随机分组,获得3233个训练样本和100个测试样本;为了权衡网络的时间和空间需求,将原始输入图像从541×376随机剪裁成320×240进行训练;使用4个小批量结果在速度和收敛性之间取得最佳平衡;在实验中,网络在12000次迭代中训练;整个实验需要将近2天的时间进行训练;使用ADAM进行优化,其中β1=0.9、β2=0.999,学习率为0.0001。
图2是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的系统流程图。全分辨率网络的编码器部分先从输入图像中提取重要的局部特征,然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图,接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射,最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。
图3是本发明一种基于深度辅助全分辨率网络的新视点图像合成方法的从光场数据集合成新视点的结果。将中心视图的坐标标记为灰色圆点,将合成视点标记为浅灰色方块中的黑色圆点,表示视点的相对位置。在这里,在四个极端视点位置上显示花卉数据集(左侧两个)和自然图像数据集(右侧两个)上的结果。放大的区域包含前景和背景,其相对位置根据视点的变化而改变。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于深度辅助全分辨率网络的新视点图像合成方法,其特征在于,主要包括深度辅助全分辨率网络(一);损失函数(二);训练(三)。
2.基于权利要求书1所述的深度辅助全分辨率网络(一),其特征在于,全分辨率网络的编码器部分从输入图像中提取重要的局部特征;然后深度预测器通过探测全局图像信息后在大型图像数据集上预先训练,从而估计输入图像的深度图;接着将局部特征和深度馈送到解码器,并指示目标视点位置的双通道映射;最后基于流的变形,解码器将组合的特征转换成扭曲场来合成最终的目标图像。
3.基于权利要求书2所述的编码器,其特征在于,编码器用于提取输入图像的局部特征;编码器网络是一系列具有不同大小的卷积核,生成与输入图像具有相同分辨率的特征;修正线性单位(ReLU)层被添加在每个卷积层之后;这些特征将用于重建最终转换后的图像。
4.基于权利要求书2所述的估计输入图像的深度图,其特征在于,将估计的预测相对深度添加为输入图像的一个特征;根据一幅图像上像素对的标记深度排序来训练深度预测网络,输出表示输入图像的相对深度;利用从图片分享网站收集并与两个随机像素的相对深度排序标记的421000个图像来训练网络;由于缺少后向训练的标定真实深度,因此只能利用这个网络的前向输出来提取输入图像的深度。
5.基于权利要求书4所述的特征,其特征在于,使用该深度特征有四个主要优点:首先,深度是流场的一个紧密相关的特征;输入图像与新视图之间的深度z和视差D之间的关系可写为:
其中,B是两个视点之间的绝对距离,f是焦点;新视图q的视差Dq与流场Fq之间也存在明确的关系:
Fq(s)=(Dq(s)×Δu,Dq(s)×Δv) (2)
其中,Δu和Δv分别是u和v方向上视点坐标的差异;根据公式(1)和(2),深度信息对估计流场非常重要;
其次,与其他方法相比,预测图像的相对深度可以给出更清晰的对象之间的相对位置关系;
第三,用于预测深度的网络已经通过两个距离较远的像素的信息(深度顺序)进行训练,所以本网络通过涉及深度隐含地考虑了大的感知场;由于全分辨率网络保留了局部特征,因此通过收集局部和全局信息进行最终综合;
最后,用于训练深度预测器的数据集非常大,并且覆盖了大量的自然场景;
除了作为编码器部分末端的特征层连接到网络的深度图像之外,新视图的二维坐标(u,v)也被添加为具有与输入图像相同尺寸的两个层特征;这是为了将目标的视点信息提供给网络。
6.基于权利要求书2所述的解码器,其特征在于,这部分的网络估计所有像素的密集流;在使用后向插值方法时,流场也用于处理输入中不可见的遮挡区域;该解码器部分的网络包含四个卷积层,前三个是ReLU层,后一个是Tanh层。
7.基于权利要求书2所述的基于流的变形,其特征在于,遵循外观流和空间变换网络的思想,应用基于流的变形方法来合成最终的图像;预测流场和新视图图像之间存在明确的数学关系;对于一个新颖视图图像中的每个像素s,其像素值可以表示为:
Iq(s)=Ip[s+Fq(s)] (3)
其中,Fq(s)是神经网络输出的二维流;这里,由于在目标视图上的像素s处定义了流,所以利用反向变形将输入图像转换为新视图;由于公式(3)中描述的变形函数是可微分的,并且可以有效地计算梯度,所以网络的所有层都是可微的,并且可以以监督的方式端到端地训练整个网络。
8.基于权利要求书1所述的损失函数(二),其特征在于,网络的目标函数C可以写成:
损失函数的第一部分是传统的图像重构误差(L1),它限制了结果Iq和标定好的真实数据之间的相似性;损失函数的第二部分是预测流场Fq的总变分正则化;在本方法中增加正则化,因为流场Fq中的总变差分约束将保证平滑并产生高数量结果;凭经验设定所有的实验中α=0.001。
9.基于权利要求书1所述的训练(三),其特征在于,相机通过常规微透镜阵列捕捉场景的光场;由于视点之间的距离远远小于相机与场景物体之间的距离,因此假设所有视点均位于二维u-v平面中;在训练中,将中心视点中心pcenter(u,v)的位置表示为[0,0];pnovel(u,v)的范围是[-3,+3]×[-3,+3];为了充分利用数据集,所有的光场图像都有可能被选为中心视图,而其他图像的坐标则由它们相对于中心图像的相对位置决定;训练使用两个数据集进行实验和验证。
10.基于权利要求书9所述的数据集,其特征在于,数据集包括光场数据集和花卉数据集;光场数据集包含100个训练图像和30个测试图像,角度分辨率为8×8;此数据集包含多种场景,如汽车、花卉和树木;这是一个具有挑战性的数据集,因为它只包含有限数量的样本,而且它们的变化很复杂;花场数据集包含3433种各种花卉的光场图像,将花卉数据集随机分组,获得3233个训练样本和100个测试样本;为了权衡网络的时间和空间需求,将原始输入图像从541×376随机剪裁成320×240进行训练;使用4个小批量结果在速度和收敛性之间取得最佳平衡;在实验中,网络在12000次迭代中训练;整个实验需要将近2天的时间进行训练;使用ADAM进行优化,其中β1=0.9、β2=0.999,学习率为0.0001。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810189645.2A CN108416751A (zh) | 2018-03-08 | 2018-03-08 | 一种基于深度辅助全分辨率网络的新视点图像合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810189645.2A CN108416751A (zh) | 2018-03-08 | 2018-03-08 | 一种基于深度辅助全分辨率网络的新视点图像合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108416751A true CN108416751A (zh) | 2018-08-17 |
Family
ID=63130317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810189645.2A Withdrawn CN108416751A (zh) | 2018-03-08 | 2018-03-08 | 一种基于深度辅助全分辨率网络的新视点图像合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416751A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903331A (zh) * | 2019-01-08 | 2019-06-18 | 杭州电子科技大学 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
CN109977847A (zh) * | 2019-03-22 | 2019-07-05 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN110381268A (zh) * | 2019-06-25 | 2019-10-25 | 深圳前海达闼云端智能科技有限公司 | 生成视频的方法,装置,存储介质及电子设备 |
CN110443874A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 基于卷积神经网络的视点数据生成方法和装置 |
CN110689514A (zh) * | 2019-10-11 | 2020-01-14 | 深圳大学 | 一种透明物体的新视角合成模型的训练方法和计算机设备 |
CN112101192A (zh) * | 2020-09-11 | 2020-12-18 | 中国平安人寿保险股份有限公司 | 基于人工智能的伪装检测方法、装置、设备及介质 |
CN112116646A (zh) * | 2020-09-23 | 2020-12-22 | 南京工程学院 | 一种基于深度卷积神经网络的光场图像深度估计方法 |
TWI716923B (zh) * | 2018-09-04 | 2021-01-21 | 開曼群島商創新先進技術有限公司 | 基於gan網路的車損影像產生方法和裝置 |
CN112639830A (zh) * | 2018-08-30 | 2021-04-09 | 华为技术有限公司 | 利用深度学习将图片分离成前景和背景的设备和方法 |
CN112927175A (zh) * | 2021-01-27 | 2021-06-08 | 天津大学 | 一种基于深度学习的单视点合成方法 |
CN114332380A (zh) * | 2022-01-04 | 2022-04-12 | 吉林大学 | 基于单目rgb相机与三维体表示的光场视频合成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN107633223A (zh) * | 2017-09-15 | 2018-01-26 | 深圳市唯特视科技有限公司 | 一种基于深层对抗网络的视频人体属性识别方法 |
-
2018
- 2018-03-08 CN CN201810189645.2A patent/CN108416751A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN107633223A (zh) * | 2017-09-15 | 2018-01-26 | 深圳市唯特视科技有限公司 | 一种基于深层对抗网络的视频人体属性识别方法 |
Non-Patent Citations (1)
Title |
---|
XIAODONG CUN: "view synthsis,Depth-assisted full resolution networks", 《ARXIV:1711.06620V1》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112639830A (zh) * | 2018-08-30 | 2021-04-09 | 华为技术有限公司 | 利用深度学习将图片分离成前景和背景的设备和方法 |
TWI716923B (zh) * | 2018-09-04 | 2021-01-21 | 開曼群島商創新先進技術有限公司 | 基於gan網路的車損影像產生方法和裝置 |
CN109903331B (zh) * | 2019-01-08 | 2020-12-22 | 杭州电子科技大学 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
CN109903331A (zh) * | 2019-01-08 | 2019-06-18 | 杭州电子科技大学 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
CN109977847A (zh) * | 2019-03-22 | 2019-07-05 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN109977847B (zh) * | 2019-03-22 | 2021-07-16 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN110381268B (zh) * | 2019-06-25 | 2021-10-01 | 达闼机器人有限公司 | 生成视频的方法,装置,存储介质及电子设备 |
CN110381268A (zh) * | 2019-06-25 | 2019-10-25 | 深圳前海达闼云端智能科技有限公司 | 生成视频的方法,装置,存储介质及电子设备 |
CN110443874A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 基于卷积神经网络的视点数据生成方法和装置 |
CN110689514A (zh) * | 2019-10-11 | 2020-01-14 | 深圳大学 | 一种透明物体的新视角合成模型的训练方法和计算机设备 |
CN110689514B (zh) * | 2019-10-11 | 2022-11-11 | 深圳大学 | 一种透明物体的新视角合成模型的训练方法和计算机设备 |
CN112101192A (zh) * | 2020-09-11 | 2020-12-18 | 中国平安人寿保险股份有限公司 | 基于人工智能的伪装检测方法、装置、设备及介质 |
CN112116646A (zh) * | 2020-09-23 | 2020-12-22 | 南京工程学院 | 一种基于深度卷积神经网络的光场图像深度估计方法 |
CN112116646B (zh) * | 2020-09-23 | 2023-11-24 | 南京工程学院 | 一种基于深度卷积神经网络的光场图像深度估计方法 |
CN112927175A (zh) * | 2021-01-27 | 2021-06-08 | 天津大学 | 一种基于深度学习的单视点合成方法 |
CN114332380A (zh) * | 2022-01-04 | 2022-04-12 | 吉林大学 | 基于单目rgb相机与三维体表示的光场视频合成方法 |
CN114332380B (zh) * | 2022-01-04 | 2024-08-09 | 吉林大学 | 基于单目rgb相机与三维体表示的光场视频合成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416751A (zh) | 一种基于深度辅助全分辨率网络的新视点图像合成方法 | |
CN113706714B (zh) | 基于深度图像和神经辐射场的新视角合成方法 | |
CN110443842B (zh) | 基于视角融合的深度图预测方法 | |
Ye et al. | Deep joint depth estimation and color correction from monocular underwater images based on unsupervised adaptation networks | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
CN107945282B (zh) | 基于对抗网络的快速多视角三维合成和展示方法及装置 | |
CN105654492B (zh) | 基于消费级摄像头的鲁棒实时三维重建方法 | |
CN110378838B (zh) | 变视角图像生成方法,装置,存储介质及电子设备 | |
CN110381268B (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
Wu et al. | Revisiting light field rendering with deep anti-aliasing neural network | |
Chen et al. | MFFN: An underwater sensing scene image enhancement method based on multiscale feature fusion network | |
Tian et al. | Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint | |
Mahjourian et al. | Geometry-based next frame prediction from monocular video | |
Chen et al. | Fixing defect of photometric loss for self-supervised monocular depth estimation | |
US11880935B2 (en) | Multi-view neural human rendering | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN101877143A (zh) | 一种二维图像组的三维场景重建方法 | |
CN115428027A (zh) | 神经不透明点云 | |
Karpov et al. | Exploring efficiency of vision transformers for self-supervised monocular depth estimation | |
Zhang et al. | Dense haze removal based on dynamic collaborative inference learning for remote sensing images | |
Chen et al. | Dense pixel-to-pixel harmonization via continuous image representation | |
CN116091314A (zh) | 一种基于多尺度深度单应性的红外图像拼接方法 | |
Shi et al. | Improving 3d-aware image synthesis with a geometry-aware discriminator | |
CN117523100A (zh) | 基于神经网络与多视图一致性的三维场景重建方法和装置 | |
Wu et al. | Depth mapping of integral images through viewpoint image extraction with a hybrid disparity analysis algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180817 |