CN107945282A - 基于对抗网络的快速多视角三维合成和展示方法及装置 - Google Patents

基于对抗网络的快速多视角三维合成和展示方法及装置 Download PDF

Info

Publication number
CN107945282A
CN107945282A CN201711267556.7A CN201711267556A CN107945282A CN 107945282 A CN107945282 A CN 107945282A CN 201711267556 A CN201711267556 A CN 201711267556A CN 107945282 A CN107945282 A CN 107945282A
Authority
CN
China
Prior art keywords
image
maker
coarse
confrontation network
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711267556.7A
Other languages
English (en)
Other versions
CN107945282B (zh
Inventor
宋强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Luoyang Zhongke Artificial Intelligence Research Institute Co.,Ltd.
Luoyang Zhongke Information Industry Research Institute
Original Assignee
Luoyang Institute Of Information Industry Of Chinese Academy Of Sciences (luoyang Branch Of Institute Of Computing And Technology Cas)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Luoyang Institute Of Information Industry Of Chinese Academy Of Sciences (luoyang Branch Of Institute Of Computing And Technology Cas) filed Critical Luoyang Institute Of Information Industry Of Chinese Academy Of Sciences (luoyang Branch Of Institute Of Computing And Technology Cas)
Priority to CN201711267556.7A priority Critical patent/CN107945282B/zh
Publication of CN107945282A publication Critical patent/CN107945282A/zh
Application granted granted Critical
Publication of CN107945282B publication Critical patent/CN107945282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

基于对抗网络的快速多视角三维合成和展示方法及装置,对某一视角下深度图和RGB图进行处理,利用构建生成对抗网络(GAN),便可得到连续的多视角下物体的二维映射,无需对三维模型进行重建,仅仅对某一视角下深度图和RGB图进行处理,无需重建高质量的三维模型,便可得到连续的多视角下物体的二维映射,通过变换视角,可以实时的获取该二维图像,简化了三维物体展示的流程,能实现对三维物体的多视角的实时较高质量的展示。

Description

基于对抗网络的快速多视角三维合成和展示方法及装置
技术领域
本发明涉及包含游戏交互,三维动画制作与合成,虚拟现实内容获取,三维虚拟物体展示等领域,具体涉及一种可将现实物体基于对抗网络快速在不同视角下合成和展示的方法及装置。
背景技术
在过去的几年里,随着移动互联网和智能设备的快速普及,人们对人机交互方式有了更高的要求,虚拟现实(VR)技术也因此有了快速的发展,三星的Gear VR头盔和OculusRift等VR设备的出现,给人们带来了全新的交互体验,人们可以通过VR设备体验VR游戏,VR社交,甚至可以将一个局部的现实世界重建出来,带给人强烈的真实感。目前,已有许多科研技术人员在研究三维重建技术,如何将现实中的物体或者场景真实的反映在虚拟世界中,然后将重建结果展示出来。所谓三维重建技术,就是通过相机采集的二维的图像,经过几何映射和点对应等方法,在三维世界中重建出三维物体,然后可以对该重建出的虚拟物体在各个视角进行观测展示,给人一种逼真的感觉。现有的对现实物体到虚拟世界的展示技术,均是通过三维重建技术进行建模,然后再通过纹理映射重光照等技术,恢复物体表面的色彩纹理和光照,然后对其进行展示。其中仅三维重建模型就包含了采集多视角图像,寻找匹配点对应,几何投影,点云融合,面片融合等各项复杂的流程,整个过程纷繁复杂,速度慢而且效果也不是尽好,重建的模型中时而会出现黑色的空洞,反而降低了模型的质量,给人不真实的感觉。鉴于以上问题,本发明从三维展示的本质出发,提出了一种无需对现实物体进行三维建模,而直接对其进行多视角展示的方法。
发明内容
为解决上述技术问题,本发明提供一种基于对抗网络的快速多视角三维合成和展示方法及装置,无需对三维模型进行重建,仅仅对某一视角下深度图和RGB图进行处理,无需重建高质量的三维模型,便可得到连续的多视角下物体的二维映射,通过变换视角,可以实时的获取该二维图像,简化了三维物体展示的流程,能实现对三维物体的多视角的实时较高质量的展示。
为实现上述技术目的,所采用的技术方案是:基于对抗网络的快速多视角三维合成和展示方法,对某一视角下深度图和RGB图进行处理,利用构建生成对抗网络(GAN),便可得到连续的多视角下物体的二维映射,其具体实现方法是:
步骤一、学习过程
1.1、获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集;
1.2、从数据集中随机取出两组数据作为输入,构建出一个训练样本,首先对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像;
1.3、构建生成对抗网络GAN,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的差别能力和最小化生成器的分布损失函数,得到最优图像结果,生成对抗网络CAN的整体参数;
步骤二、合成过程
在完成上述学习部分后,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入GAN网络中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
进一步,所述的最大化判别器的差别能力和最小化生成器的分布损失函数为
其中,x是来自真实数据集的图像,z是一个均匀分布随机数产生器产生的一组随机变量,G是生成器,D是判别器。
进一步,所述的步骤一中的1.3步骤具体实现方法是:
(一)首先对GAN网络中所有参数,包括生成器和判别器进行随机初始化;
(二)将样本输入网络中,得到生成图像并使用判别器得到结果;
(三)固定生成器参数,应用改进的梯度下降或者其他方法,优化判别器的参数,使其判别能力得到最大;
(四)固定判别器参数,应用改进的梯度下降或者其他方法,优化生成器的参数,使得整个最大化判别器的差别能力和最小化生成器的分布损失函数最小化;
(五)判断结果是否收敛,如果没有收敛,重复(二)-(五)的操作直到收敛或最大迭代轮数;
(六)最后得到生成对抗网络CAN的整体参数。
进一步,所述的学习过程为离线过程,在系统为运行时先对该网络进行训练。
进一步,所述的合成部分为在线过程,与系统一起运作,可以边采集图像边切换视角,同时获取切换视角下的生成图像。
进一步,所述的生成器生成图像的具体实现方法是,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中,通过对粗糙的RGBD图形N*N的不同卷积核多次对RGBD图像进行卷积核池化操作,得到粗糙的RGBD图形的中间结果,对随机变量Z采取多次逆卷积,生成随机变量Z的中间结果,将两个中间结果拼接在一起,而后进行多次卷积和逆卷积操作最后得到生成器生成图像。
进一步,所述的获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V的装置为深度相机。
实现基于对抗网络的快速多视角三维合成和展示方法的装置,包括:
物体信息获取单元,获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集;
粗糙图像获取单元,从物体信息获取单元的数据集中随机取出两组数据作为输入,构建出一个训练样本,首先对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像;
学习训练单元,构建生成对抗网络GAN,将粗糙图像猎取单元得到的粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的判别能力和最小化生成器的损失函数,得到最优图像结果,生成对抗网络CAN的整体参数;
合成单元,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入学习训练单元中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
本发明有益效果是:本发明中方法与传统的物体的三维展示不同,传统的物体三维展示需要先对物体进行三维建模,生成表面,而后再做纹理映射等方法得到其在特定视角下的二维映射。而本发明的方法,不需要建立精确的三维模型和表面,而是从物体本身的属性出发,将图像经过投影矩阵得到新视点下粗糙的图像,而后通过深度学习的方法,学习物体从粗糙图像到高质量图像映射,简化了三维重建的复杂过程,同时,该方法在学习阶段时离线的,在推断阶段时在线的,训练完成后可以实时的对进行多视角变换映射,从而实现对物体的展示。本系统中的方法对1024*1024的图像处理速度跟硬件水平密切相关,在装有英伟达1080显卡的情况下,可以达到每秒钟34帧,符合实时性的要求。
附图说明
图1为本发明的工作流程图;
图2为本发明的GAN网络整体结构图;
图3为本发明的GAN的生成器的网络结构图;
图4为利用本发明所到的结果示意图。
具体实施方式
本发明方法从三维物体展示的本质出发,不管中间过程如何处理,人眼和相机一样最终看到的都是二维图像。普通的三维重建方法需重建高质量的三维模型,经过纹理映射和重光照之后,将其投影到具体的某一视角下的二维映射进行展示。
然而通过对各个样本进行观测,可以发现,某一相机视角下的物体,其实包含两个属性,一是其本质属性,反映其本身的三维结构颜色纹理等,另一个是视角属性,反映该相机视角的位置投影所产生的变化。物体本质不会随视角的变化而改变,而视角属性却会引起二维投影的变化。因此本发明从这两个属性出发,应用与三维重建技术同样的输入,包括一张RGB图和一张深度图,和一个视点位置,使用深度学习中的生成模型,便可获取该视点下物体的展示。
本技术方案分为两部分,包括学习过程和合成过程。本方案假设所用相机的参数矩阵,包括内参外参均已知。
该方法所用的软硬件配置:
CPU Intel i7-6700k 4.0GHz
GPU NVIDIA 1080ti
内存 32GB DDR4 3000
硬盘 三星 960PRO 1TB
操作系统 Ubuntu16.04
相关程序库 Tensorflow v1.0 CUDA8.0
基于对抗网络的快速多视角三维合成和展示方法,如图1所示,对某一视角下深度图和RGB图进行处理,利用构建生成对抗网络(GAN),便可得到连续的多视角下物体的二维映射,其具体实现方法是:
步骤一、学习部分
1.1、获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集,每个样本中P和D反映了物体的本质属性,即颜色和几何结构,而V则反映出其视点属性;
1.2、从数据集中随机取出两组数据作为输入,构建出一个训练样本,首先对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像;
其具体过程为:从数据集中随机取出两组数据(p1,d1,v1),(p2,d2,v2),将p1,d1,v1,v2作为输入,将p2作为监督数据,从而构建出一个训练样本。首先对训练样本进行特征提取和变换。对于每个深度图d1,假设d1的图像中心点(Xc, Yc)正对着相机光心即视点v1,则根据深度图的特性,则深度图中每个像素(x,y,d)所反映的三维信息为(x-Xc, y-Yc,d), 则根据新视点位置v2,和已知的相机参数,将该三维信息经过摄影变换投影到新视点位置v2下的二维图像中,得到每个像素新的像素位置和像素值(x’, y’, d’)。将这组数据作为从深度图d1提取出的特征。 对于RGB图根据前面对深度图的特征提取的到的结果将自己的值也对应到新的视点下,从而得到新视点下每个像素所对应颜色特征(x’, y’, r’, g’,b’),将其与深度数据拼接到一起得到(x’,y’,r’,g’,b’,d’) 。在这一步中,已经得到了一个非常粗糙的在原图像在新视角下的投影RGBD图像,但是因为空间中的点是非常稀疏的,故存在遮挡或者漏洞问题, 该图像的视觉效果非常差,将在第1.3步应用对抗生成网络来解决这一问题。
1.3、如图2所示,构建生成对抗网络GAN,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的差别能力和最小化生成器的分布损失函数,得到最优图像结果,生成对抗网络CAN的整体参数;
1.3.1、构建生成对抗网络(GAN),GAN是深度学习中的一种生成网络模型,它由生成器和判别器构成。生成器会拟合样本数据的分布,而判别器是一个二分类器,估计一个样本来自于训练数据的概率(即判断输入的数据到底是真实数据还是生成器生成的数据)。由此可知,GAN要同时训练一个生成网络模型G和一个判别网络模型D,前者将输入一组随机变量z,输出一张伪造的图像G(z),后者输入一张真实图像或生成的图像,输出一个表示该图像是真实图像的概率。理想情况下,判别器G应尽可能准确的判断图像的真实性,而生成器应该尽可能的去拟合真实图像来欺骗D,从而进行生成对抗的过程。上述过程的形式化表述如下:
其中x是来自真实数据集的图像,z是模拟生成的随机变量,G是生成模型,D是判别模型。最大化D的判别能力,最小化G的拟合分布与真实分布的差异,从而达到最优的结果。
1.3.2、生成器生成图像的具体实现方法是,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中,通过对粗糙的RGBD图形N*N的不同卷积核多次对RGBD图像进行卷积核池化操作,得到粗糙的RGBD图形的中间结果,对随机变量Z采取多次逆卷积,生成随机变量Z的中间结果,将两个中间结果拼接在一起,而后进行多次卷积和逆卷积操作最后得到生成器生成图像。
在模型中,如图3所示进行举例,已知一个在第二步中生成的新视角下粗糙的RGBD图像,的目标是生成在该视角下真实的RGB图像。将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量输入GAN的生成器中,在此假设RGBD图像大小是512*512。通过5*5的不同卷积核多次对RGBD图像进行卷积核池化操作,生成生成器生成图像的64*64的128通道的中间结果。对随机变量Z采取多次逆卷积,生成随机变量Z的64*64的64通道的中间结果,将两个中间结果拼接在一起。而后进行多次卷积和逆卷积操作最后生成生成图像。整个网络结构中的卷积核参数是学习的目标。
1.3.3、判别器也是有多层卷积层与两层全链接层链接构成,卷积层用于提取图像特征,全链接用于接收特征并计算结果。将原图像连同对应的粗糙RGBD图像作为图像队一起输入到判别器中,这样做是为了保证判别器能够判断生成器生成图像和粗糙的RGBD图像是相对应的。如果不这么做,随机的选取单张真实图像和生成器成图像给判别器判断,判别器虽然可以保证图像较为逼真,但无法保证该图像是目标视角下的图像。因此,在判别过程中,随机的选取原图像与其对应的生成器生成图像、真实图像和其对应的粗糙图像RGBD输入判别器中,由判别器返回是真是假。
1.3.4、在整个训练过程中:
(一)首先对GAN网络中所有参数,包括生成器和判别器进行随机初始化;
(二)将样本输入网络中,得到生成图像并使用判别器得到结果;
(三)固定生成器参数,应用改进的梯度下降或者其他方法,优化判别器的参数,使其判别能力得到最大;
(四)固定判别器参数,应用改进的梯度下降或者其他方法,优化生成器的参数,使得整个最大化判别器的差别能力和最小化生成器的分布损失函数最小化;
(五)判断结果是否收敛,如果没有收敛,重复(二)-(五)的操作直到收敛或最大迭代轮数;
(六)最后得到生成对抗网络CAN的整体参数。
以上学习过程是离线的,可以在系统为运行时先对该网络进行训练。
步骤二、合成部分
在完成上述学习部分后,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入GAN网络中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
推断过程是在线的,与系统一起运作,可以满足边采集图像,边切换视角,同时获取切换视角下的生成图像。从而满足实时的要求。
获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V的装置为深度相机。
实现基于对抗网络的快速多视角三维合成和展示方法的装置,包括:
物体信息获取单元,获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集。
粗糙图像获取单元,从物体信息获取单元的数据集中随机取出两组数据作为输入,构建出一个训练样本,首先对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像。
学习训练单元,构建生成对抗网络GAN,将粗糙图像猎取单元得到的粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的差别能力和最小化生成器的分布损失函数,得到最优图像结果,生成对抗网络CAN的整体参数。
合成单元,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入学习训练单元中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
本文所实现的方法能够实时的产生对物体的多角度的三维展示。可应用于三维展示,虚拟现实交互,图像合成等领域。
在三维展示中,应用此方法,仅需通过在多个角度固定几个深度相机如kinect,例如在物体360度范围内,每隔60度设置一台相机,将相机获得的RGB图像与深度图实时输入系统,可以实现对物体任意角度的三维展示,包括但不限于物体,场景,人体等模型展示。
如图4所示,该图标为彩图,左上角第一幅为输入图像,其余三幅图像是在改变视点坐标后得到的不同结果图像。
在虚拟现实交互中,应用此方法,在多相机拍摄的场景交互中,通过VR眼镜对作视点坐标的获取,可以将不同的交互者的形象实时清晰的展现在用户眼前。
在图像合成领域,应用此方法,实时合成物体多方位的图像,避免人工手动合成图像的麻烦,减少人工成本。

Claims (8)

1.基于对抗网络的快速多视角三维合成和展示方法,其特征在于:对某一视角下深度图和RGB图进行处理,利用构建生成对抗网络(GAN),便可得到连续的多视角下物体的二维映射,其具体实现方法是:
步骤一、学习过程
1.1、获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集;
1.2、从数据集中随机取出两组数据作为输入,构建出一个训练样本,对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像;
1.3、构建生成对抗网络GAN,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的差别能力和最小化生成器的分布损失函数,得到最优图像结果,生成对抗网络CAN的整体参数;
步骤二、合成过程
在完成上述学习部分后,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入GAN网络中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
2.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的最大化判别器的差别能力和最小化生成器的分布损失函数为
其中,x是来自真实数据集的图像,z是一个均匀分布随机数产生器产生的一组随机变量,G是生成器,D是判别器。
3.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的步骤一中的1.3步骤具体实现方法是:
(一)首先对GAN网络中所有参数,包括生成器和判别器进行随机初始化;
(二)将样本输入网络中,得到生成图像并使用判别器得到结果;
(三)固定生成器参数,应用改进的梯度下降或者其他方法,优化判别器的参数,使其判别能力得到最大;
(四)固定判别器参数,应用改进的梯度下降或者其他方法,优化生成器的参数,使得整个最大化判别器的差别能力和最小化生成器的分布损失函数最小化;
(五)判断结果是否收敛,如果没有收敛,重复(二)-(五)的操作直到收敛或最大迭代轮数;
(六)最后得到生成对抗网络CAN的整体参数。
4.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的学习过程为离线过程,在系统为运行时先对该网络进行训练。
5.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的合成过程为在线过程,与系统一起运作,可以边采集图像边切换视角,同时获取切换视角下的生成图像。
6.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的生成器生成图像的具体实现方法是,将粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中,通过对粗糙的RGBD图形N*N的不同卷积核多次对RGBD图像进行卷积核池化操作,得到粗糙的RGBD图形的中间结果,对随机变量Z采取多次逆卷积,生成随机变量Z的中间结果,将两个中间结果拼接在一起,而后进行多次卷积和逆卷积操作最后得到生成器生成图像。
7.如权利要求1所述的基于对抗网络的快速多视角三维合成和展示方法,其特征在于:所述的获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V的装置为深度相机。
8.如权利要求1所述的实现基于对抗网络的快速多视角三维合成和展示方法的装置,其特征在于:
包括,物体信息获取单元,获取目标物体多视角下的RGB图像P和其对应的深度图像D,并且记录其视点位置V,得到有多个(P,D,V)构成的一个数据集;
粗糙图像获取单元,从物体信息获取单元的数据集中随机取出两组数据作为输入,构建出一个训练样本,首先对训练样本进行特征提取和变换,将一组数据作为原图像,将另一组数据的视点位置作为新视角位置,得到了一个粗糙的在原图像在新视角下的投影RGBD图像;
学习训练单元,构建生成对抗网络GAN,将粗糙图像猎取单元得到的粗糙的RGBD图形与一个均匀分布的随机数产生器产生的一组随机变量Z输入GAN的生成器中得到生成器生成图像,将粗糙的RGBD图形与原图像作为判别图像,与生成器生成图像一起输入CAN的判别器判别真假,通过最大化判别器的差别能力和最小化生成器的分布损失函数,得到最优图像结果,生成对抗网络CAN的整体参数;
合成单元,任意的给定一个物体的RGB图p和相应的深度图d,给定一个视角v, 将其进行视角变换后的得到的粗糙的RGBD图像输入学习训练单元中,便可得到该视角下的生成图像,保持RGB图和深度图不变,变换视角位置v,便可得到不同视点下的RGB图像,即得到了对该物体多视角下的展示图。
CN201711267556.7A 2017-12-05 2017-12-05 基于对抗网络的快速多视角三维合成和展示方法及装置 Active CN107945282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711267556.7A CN107945282B (zh) 2017-12-05 2017-12-05 基于对抗网络的快速多视角三维合成和展示方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711267556.7A CN107945282B (zh) 2017-12-05 2017-12-05 基于对抗网络的快速多视角三维合成和展示方法及装置

Publications (2)

Publication Number Publication Date
CN107945282A true CN107945282A (zh) 2018-04-20
CN107945282B CN107945282B (zh) 2021-01-29

Family

ID=61945773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711267556.7A Active CN107945282B (zh) 2017-12-05 2017-12-05 基于对抗网络的快速多视角三维合成和展示方法及装置

Country Status (1)

Country Link
CN (1) CN107945282B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665506A (zh) * 2018-05-10 2018-10-16 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机存储介质及服务器
CN108765549A (zh) * 2018-04-30 2018-11-06 程昔恩 一种基于人工智能的产品三维展示方法及装置
CN108765340A (zh) * 2018-05-29 2018-11-06 Oppo(重庆)智能科技有限公司 模糊图像处理方法、装置及终端设备
CN108986164A (zh) * 2018-07-03 2018-12-11 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
CN109151443A (zh) * 2018-10-15 2019-01-04 Oppo广东移动通信有限公司 高舒适度立体视频生成方法、系统及终端设备
CN109361934A (zh) * 2018-11-30 2019-02-19 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN109584257A (zh) * 2018-11-28 2019-04-05 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
CN109657156A (zh) * 2019-01-22 2019-04-19 杭州师范大学 一种基于循环生成对抗网络的个性化推荐方法
CN109948689A (zh) * 2019-03-13 2019-06-28 北京达佳互联信息技术有限公司 一种视频生成方法、装置、电子设备及存储介质
CN110381268A (zh) * 2019-06-25 2019-10-25 深圳前海达闼云端智能科技有限公司 生成视频的方法,装置,存储介质及电子设备
CN110379020A (zh) * 2018-07-04 2019-10-25 北京京东尚科信息技术有限公司 一种基于生成对抗网络的激光点云上色方法和装置
CN110400337A (zh) * 2019-07-10 2019-11-01 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN110415288A (zh) * 2019-07-31 2019-11-05 达闼科技(北京)有限公司 深度图像生成方法、装置及计算机可读存储介质
CN110489661A (zh) * 2019-07-24 2019-11-22 武汉大学 一种基于生成对抗网络和迁移学习的社交关系预测方法
CN111193920A (zh) * 2019-12-31 2020-05-22 重庆特斯联智慧科技股份有限公司 一种基于深度学习网络的视频画面立体拼接方法和系统
CN111913645A (zh) * 2020-08-17 2020-11-10 广东申义实业投资有限公司 三维图像展示的方法、装置、电子设备及存储介质
WO2020228347A1 (zh) * 2019-05-14 2020-11-19 广东康云科技有限公司 基于超像素的对象三维模型生成方法、系统及存储介质
CN112509129A (zh) * 2020-12-21 2021-03-16 神思电子技术股份有限公司 一种基于改进gan网络的空间视场图像生成方法
CN112541972A (zh) * 2019-09-23 2021-03-23 华为技术有限公司 一种视点图像处理方法及相关设备
CN112634339A (zh) * 2019-09-24 2021-04-09 阿里巴巴集团控股有限公司 商品对象信息展示方法、装置及电子设备
CN113160085A (zh) * 2021-04-22 2021-07-23 上海大学 一种基于生成对抗网络的水花遮挡图像数据集采集方法
CN113538318A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113781540A (zh) * 2021-09-15 2021-12-10 京东鲲鹏(江苏)科技有限公司 网络生成方法、装置、电子设备和计算机可读介质
CN114036969A (zh) * 2021-03-16 2022-02-11 上海大学 一种多视角情况下的3d人体动作识别算法
CN114371807A (zh) * 2022-03-23 2022-04-19 超节点创新科技(深圳)有限公司 混合现实显示方法、三维扫描设备及存储介质
WO2022099613A1 (zh) * 2020-11-13 2022-05-19 华为技术有限公司 图像生成模型的训练方法、新视角图像生成方法及装置
CN114882272A (zh) * 2022-04-22 2022-08-09 成都飞机工业(集团)有限责任公司 一种航空制造件全角度投影图像面片属性融合分析方法
WO2024037643A1 (zh) * 2022-08-19 2024-02-22 北京字跳网络技术有限公司 图像显示方法、图像处理方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170091951A1 (en) * 2015-09-30 2017-03-30 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备
CN107067465A (zh) * 2017-04-14 2017-08-18 深圳市唯特视科技有限公司 一种基于验证转换图像生成网络的三维视图合成方法
CN107239766A (zh) * 2017-06-08 2017-10-10 深圳市唯特视科技有限公司 一种利用对抗网络和三维形态模型的大幅度人脸摆正方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170091951A1 (en) * 2015-09-30 2017-03-30 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备
CN107067465A (zh) * 2017-04-14 2017-08-18 深圳市唯特视科技有限公司 一种基于验证转换图像生成网络的三维视图合成方法
CN107239766A (zh) * 2017-06-08 2017-10-10 深圳市唯特视科技有限公司 一种利用对抗网络和三维形态模型的大幅度人脸摆正方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MICKAËL CHEN: "MULTI-VIEW GENERATIVE ADVERSARIAL NETWORKS", 《ARXIV:1611.02019V1》 *
李威: "基于特征学习的RGB-D目标识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765549A (zh) * 2018-04-30 2018-11-06 程昔恩 一种基于人工智能的产品三维展示方法及装置
CN108665506A (zh) * 2018-05-10 2018-10-16 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机存储介质及服务器
CN108665506B (zh) * 2018-05-10 2021-09-28 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机存储介质及服务器
CN108765340A (zh) * 2018-05-29 2018-11-06 Oppo(重庆)智能科技有限公司 模糊图像处理方法、装置及终端设备
CN108986164B (zh) * 2018-07-03 2021-01-26 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
CN108986164A (zh) * 2018-07-03 2018-12-11 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
US11074709B2 (en) 2018-07-03 2021-07-27 Baidu Online Network Technology (Beijing) Co., Ltd. Image-based position detection method, image based position detection apparatus, device and storage medium
CN110379020B (zh) * 2018-07-04 2023-05-30 北京京东尚科信息技术有限公司 一种基于生成对抗网络的激光点云上色方法和装置
CN110379020A (zh) * 2018-07-04 2019-10-25 北京京东尚科信息技术有限公司 一种基于生成对抗网络的激光点云上色方法和装置
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN109151443A (zh) * 2018-10-15 2019-01-04 Oppo广东移动通信有限公司 高舒适度立体视频生成方法、系统及终端设备
CN109584257B (zh) * 2018-11-28 2022-12-09 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
CN109584257A (zh) * 2018-11-28 2019-04-05 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
US11798145B2 (en) 2018-11-30 2023-10-24 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, device, and storage medium
CN109361934B (zh) * 2018-11-30 2021-10-08 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN109361934A (zh) * 2018-11-30 2019-02-19 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN109657156A (zh) * 2019-01-22 2019-04-19 杭州师范大学 一种基于循环生成对抗网络的个性化推荐方法
CN109948689A (zh) * 2019-03-13 2019-06-28 北京达佳互联信息技术有限公司 一种视频生成方法、装置、电子设备及存储介质
WO2020228347A1 (zh) * 2019-05-14 2020-11-19 广东康云科技有限公司 基于超像素的对象三维模型生成方法、系统及存储介质
CN110381268A (zh) * 2019-06-25 2019-10-25 深圳前海达闼云端智能科技有限公司 生成视频的方法,装置,存储介质及电子设备
CN110381268B (zh) * 2019-06-25 2021-10-01 达闼机器人有限公司 生成视频的方法,装置,存储介质及电子设备
CN110400337B (zh) * 2019-07-10 2021-10-26 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN110400337A (zh) * 2019-07-10 2019-11-01 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN110489661A (zh) * 2019-07-24 2019-11-22 武汉大学 一种基于生成对抗网络和迁移学习的社交关系预测方法
CN110489661B (zh) * 2019-07-24 2022-04-26 武汉大学 一种基于生成对抗网络和迁移学习的社交关系预测方法
CN110415288A (zh) * 2019-07-31 2019-11-05 达闼科技(北京)有限公司 深度图像生成方法、装置及计算机可读存储介质
WO2021057091A1 (zh) * 2019-09-23 2021-04-01 华为技术有限公司 视点图像处理方法及相关设备
CN112541972A (zh) * 2019-09-23 2021-03-23 华为技术有限公司 一种视点图像处理方法及相关设备
CN112634339A (zh) * 2019-09-24 2021-04-09 阿里巴巴集团控股有限公司 商品对象信息展示方法、装置及电子设备
CN111193920A (zh) * 2019-12-31 2020-05-22 重庆特斯联智慧科技股份有限公司 一种基于深度学习网络的视频画面立体拼接方法和系统
CN111913645B (zh) * 2020-08-17 2022-04-19 广东申义实业投资有限公司 三维图像展示的方法、装置、电子设备及存储介质
CN111913645A (zh) * 2020-08-17 2020-11-10 广东申义实业投资有限公司 三维图像展示的方法、装置、电子设备及存储介质
WO2022099613A1 (zh) * 2020-11-13 2022-05-19 华为技术有限公司 图像生成模型的训练方法、新视角图像生成方法及装置
CN112509129B (zh) * 2020-12-21 2022-12-30 神思电子技术股份有限公司 一种基于改进gan网络的空间视场图像生成方法
CN112509129A (zh) * 2020-12-21 2021-03-16 神思电子技术股份有限公司 一种基于改进gan网络的空间视场图像生成方法
CN114036969A (zh) * 2021-03-16 2022-02-11 上海大学 一种多视角情况下的3d人体动作识别算法
CN114036969B (zh) * 2021-03-16 2023-07-25 上海大学 一种多视角情况下的3d人体动作识别算法
CN113160085A (zh) * 2021-04-22 2021-07-23 上海大学 一种基于生成对抗网络的水花遮挡图像数据集采集方法
CN113538318A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113538318B (zh) * 2021-08-24 2023-12-15 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113781540A (zh) * 2021-09-15 2021-12-10 京东鲲鹏(江苏)科技有限公司 网络生成方法、装置、电子设备和计算机可读介质
CN114371807A (zh) * 2022-03-23 2022-04-19 超节点创新科技(深圳)有限公司 混合现实显示方法、三维扫描设备及存储介质
CN114882272A (zh) * 2022-04-22 2022-08-09 成都飞机工业(集团)有限责任公司 一种航空制造件全角度投影图像面片属性融合分析方法
WO2024037643A1 (zh) * 2022-08-19 2024-02-22 北京字跳网络技术有限公司 图像显示方法、图像处理方法、装置、设备及介质

Also Published As

Publication number Publication date
CN107945282B (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
CN107945282A (zh) 基于对抗网络的快速多视角三维合成和展示方法及装置
CN107274493B (zh) 一种基于移动平台的三维虚拟试发型人脸重建方法
Cao et al. Semi-automatic 2D-to-3D conversion using disparity propagation
CN103473801B (zh) 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
CN108495110A (zh) 一种基于生成式对抗网络的虚拟视点图像生成方法
CN102801994B (zh) 一种信息物理图像融合装置与方法
CN104599317B (zh) 一种实现3d扫描建模功能的移动终端及方法
CN101916454A (zh) 基于网格变形和连续优化的高分辨率人脸重建方法
CN108122281B (zh) 一种大范围实时人体三维重建方法
CN109598796A (zh) 将真实场景与虚拟物体进行3d融合显示的方法和装置
CN103077552B (zh) 一种基于多视点视频的三维展示方法
CN104915978A (zh) 基于体感相机Kinect的真实感动画生成方法
CN106412556B (zh) 一种图像生成方法及装置
CN109696961A (zh) 基于vr技术的文物虚拟拆装导赏实现系统及方法、介质
CN108648264A (zh) 基于运动恢复的水下场景重建方法及存储介质
CN109255843A (zh) 三维重建方法、装置及增强现实ar设备
CN101610425A (zh) 一种评测立体图像质量的方法和装置
CN107862718A (zh) 4d全息视频捕捉方法
CN102142154A (zh) 生成脸部虚拟图像的方法与装置
CN108616746A (zh) 基于深度学习的2d全景图像转3d全景图像的方法
CN103871094A (zh) 一种基于体扫描三维显示系统数据源生成方法
CN108053495B (zh) 2d数字资源转化为可动态变化的3d数字资源的方法及系统
CN109903360A (zh) 三维人脸动画控制系统及其控制方法
CN109658326A (zh) 一种图像显示方法及装置、计算机可读存储介质
CN110782529B (zh) 一种基于三维人脸实现眼球转动效果的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 471000 Room 401, building 11, standardized workshop area, phase I, Yibin District Management Committee, Luoyang City, Henan Province

Patentee after: Luoyang Zhongke Information Industry Research Institute

Address before: 471000 Room 401, building 11, standardized workshop area, phase I, Yibin District Management Committee, Luoyang City, Henan Province

Patentee before: LUOYANG INSTITUTE OF INFORMATION TECHNOLOGY INDUSTRIES (LUOYANG BRANCH INSTITUTE OF ICT)

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221129

Address after: 471000 Room 401, building 11, standardized workshop area, phase I, Yibin District Management Committee, Luoyang City, Henan Province

Patentee after: Luoyang Zhongke Information Industry Research Institute

Patentee after: Luoyang Zhongke Artificial Intelligence Research Institute Co.,Ltd.

Address before: 471000 Room 401, building 11, standardized workshop area, phase I, Yibin District Management Committee, Luoyang City, Henan Province

Patentee before: Luoyang Zhongke Information Industry Research Institute