CN110070595B - 一种基于深度学习的单张图像3d对象重建方法 - Google Patents

一种基于深度学习的单张图像3d对象重建方法 Download PDF

Info

Publication number
CN110070595B
CN110070595B CN201910270322.0A CN201910270322A CN110070595B CN 110070595 B CN110070595 B CN 110070595B CN 201910270322 A CN201910270322 A CN 201910270322A CN 110070595 B CN110070595 B CN 110070595B
Authority
CN
China
Prior art keywords
network
shape
roi
point cloud
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910270322.0A
Other languages
English (en)
Other versions
CN110070595A (zh
Inventor
王雁刚
赵子萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute Of Southeast University
Southeast University
Original Assignee
Shenzhen Institute Of Southeast University
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute Of Southeast University, Southeast University filed Critical Shenzhen Institute Of Southeast University
Priority to CN201910270322.0A priority Critical patent/CN110070595B/zh
Publication of CN110070595A publication Critical patent/CN110070595A/zh
Application granted granted Critical
Publication of CN110070595B publication Critical patent/CN110070595B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的单张图像3D对象重建方法,包括:1、输入包含多对象的单彩色图像;2、利用预训练的RPN,输出指定类别的域候选的各个区域;3、将各区域并行送入形状‑姿态预测子网络;4、预测出原对象在三维空间中的形状参数和姿态参数;5、形状采样子网络根据形状参数解码出对应形状空间的点云模型;6、对生成的点云模型进行姿态参数进行刚性变换;7、输出该区域所包含对象的结构、姿态三维重建结果。本发明选取了点云模型作为与网络结构交互的三维数据表示,使得网络对3D数据具备更好的理解能力,同时利用“采样点数”而非“采样量化单元大小”进行精度控制,可以更好的控制复杂度,且保证了对象刚性运动中的不变性。

Description

一种基于深度学习的单张图像3D对象重建方法
技术领域
本发明涉及计算机视觉、计算机图形学、机器学习领域,具体涉及一种根据单张图像信息进行三维结构、姿态重建的方法。
背景技术
在当前的图形学技术下,根据给定对象的给定视角,计算机可以生成不同模拟光照环境下该3D对象的2D渲染图。而与其对应的反向过程——根据已有的2D渲染图对原3D对象进行结构恢复也在很多场景下,如自动驾驶,虚拟现实技术(VR)也有广阔的需求和深远的研究意义。
截至目前,基于图像的3D重建方法已经取得了较多的研究成果。概括起来可以分为三大类:1)根据RGB图像集合进行场景重建。根据多视点几何,理想情况下3D结构可以通过充足的2D图像通过匹配实现重建,如SfM和SLAM。2)根据单张RGB图像进行场景重建。3)根据RGBD图像进行场景重建。方法一在机器人对未知环境的探索与导航中取得了更好的效果,但它在初期准备时繁重的相机标定工作、算法中大量的复杂运算和技巧以至于难以实时重建。方法三经过RGBD摄像头问世后相关算法的提出、RGBD图像的数据集增多,也有了很大进展。但是在重建的鲁棒性、形状的恢复质量上,这些工作仍然存在诸多问题;另外在硬件成本上,深度摄像头高于普通设备。因此,在算法的复杂性与硬件上的不成熟,限制了上述两种方法在日常生活中活动场景下的使用;相比之下,方法二面向普通相机生成场景单张图像,如果结合当前数据驱动的学习方法,将会在实时性、低成本性、便捷性等众多方面胜出。然而这一方法在诸多方面同样存在亟待解决的难点:1)投影是非可逆变换,这一问题本身具有不适定性;2)众多三维对象表示方法各有利弊,必须根据问题确定合适的表示方法,并将现有的学习模型做适当改进以适应新的问题;3)在新问题下,必须设计新的损失函数,可以合理评估生成3D模型与目标之间的差异;4)在复杂场景中,提高模型的鲁棒性需要显著提升,才可以将方法真正投入使用。
发明内容
发明目的:为了解决现有技术存在的问题,本发明的目的是提供一种基于单目彩色相机的刚体动态三维重建方法,能够仅使用普通的彩色相机,实时对场景中预先指定类别的刚性对象进行结构、姿态的三维重建。
技术方案:一种基于深度学习的单张图像3D对象重建方法,包括如下步骤:
步骤1,输入包含多对象的单彩色图像;
步骤2,利用预训练的RPN,输出指定类别的域候选的各个区域;
步骤3,将各个区域作为输入,并行送入形状-姿态预测子网络;
步骤4,形状-姿态预测子网络根据输入区域,预测出原对象在三维空间中的形状参数和姿态参数;
步骤5,形状采样子网络根据形状参数,解码出对应形状空间的点云模型;
步骤6,按照步骤4输出的姿态参数,对生成的点云模型进行姿态参数进行刚性变换;
步骤7,输出该区域所包含对象的结构、姿态三维重建结果。
具体的,采用端到端的方式训练神经网络。
步骤1中,所述单张彩色图像包含在常见视角的一个或多个指定对象。
步骤5中,所述形状采样子网为先于步骤4中预测子网络进行训练的3D点云模型生成网络。所述形状采样子网在结构上采用了变分自编码器。在训练变分自编码器的过程中,在网络结构中引入对称函数、在损失计算中引入了倒角距离与推土机距离;
所述对称函数在对数据进行多层卷积之后,进行整个通道内取最大值的操作;
所述倒角距离的计算公式为:
Figure BDA0002018138350000021
其中,S1,S2为两个包含点数相同的点云集合,x,y分别为S1,S2中的三维点坐标;
所述推土机距离的计算公式如下:
Figure BDA0002018138350000022
其中,S1,S2为两个包含点数相同的点云集合,Φ是一个传输问题背景下,由S1到S2点集之间的一对一映射,该映射通过sinkhom算法得到。
有益效果:和现有技术相比,本发明在算法中选取了点云模型作为与网络结构交互的三维数据表示,这使得网络对3D数据具备更好的理解能力,同时利用“采样点数”而非“采样量化单元大小”进行精度控制,复杂度可以更好的控制且保证了对象刚性运动中的不变性。
附图说明
图1是本发明单图重建方法的流程图;
图2(a)-2(d)是以汽车这一特定类为例,在形状空间编码—解码器演示的预期训练效果;其中每张图的右侧为加载入网络的点云模型,左侧为训练过程中不同轮次的形状输出结构。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
另外,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例
图1为本发明实施例的人体动态三维重建方法流程图,下面参照图1,详细说明各步骤。
步骤S110,输入包含多对象的单彩色图像。
单张图像是使用普通相机拍摄的,包含同一类别的一个或多个对象的RGB彩图。“同一类别”的限定是与后续采样子网络中的形状空间相对应的,在实施过程中,首先应当确定应用场景,即欲重建刚体对象所属的类,之后形状采样网络利用迁移学习的方法,利用该类的点云模型在预训练类的已有权重进行简单的迭代,即可获得该类对象对应的形状空间采样器。另外,输入图像也可以是RGBD图,本发明中的方法在信息增加时效果是更好的,只需要在后续神经网络的输入层加入额外通道即可。
步骤S120,训练的RPN(区域候选子网络),输出指定类别的域候选的各个区域。
其中的“区域候选子网络”,参考了Faster RCNN中的RPN。相比于传统的SelectiveSearch,基于网络的区域选择用时更短,且很容易与后续的子网络相结合。为了可以向下继续使用,截取之后必须将局部区域统一Resize成相同大小。
步骤S130,将各个区域作为输入,并行送入形状-姿态预测子网络;预测出原对象在三维空间中的形状参数和姿态参数。
其中,形状-姿态预测子网络旨在从RoI中回归预测指定类的形状参数、姿态参数。形状参数可以用于恢复形状,是由下一步中形状解码器定义好的,可以理解为形状的多个主成分,而上一步在Resize过程中已经对RoI中包含的形状信息进行了畸变,因此需要根据RoI在原图中的相对位置、初始尺寸,估计出一个“RoI相机”的投影矩阵。设全局图像由一个相加拍摄,其内参矩阵为kC,RoI相机的内参矩内参矩阵为kr,则二者形式类似,如下:
Figure BDA0002018138350000041
其中,fx,fy为相机的焦距,fw,fh为Resize之后的RoI宽度、高度,rw,rh为Resize之前的RoI在原图中的宽度、高度。
而全局到RoI过程中,由于RoI未必在整幅图像的中心,则必须通过一个旋转变换,将其转换为中心投影,这一操作的实质是将RoI中心投影对齐到z(深度)轴投影,设对齐矩阵为RC,对齐操作为Φ,则
Figure BDA0002018138350000042
C是RoI中心相对于原图中心的相对旋转量,可以用下面的方法估计:
Figure BDA0002018138350000043
其中,(xC,yc)是原图中心的坐标,(xr,yr)RoI在原图中的左上角坐标,(wr,hr)是RoI在原图中的宽度、高度。
对于两个同维列向量,设外积r=p×q,则可以定义对齐操作Φ如下:
Figure BDA0002018138350000044
之后即有q=Φ*p;
有了上述定义,网络在获取到RoI之后,只需要对RoI进行一个由下面公式定义的相机视角变换,即:
Figure BDA0002018138350000045
实践过程中,利用网络学习出的H对其进行结构校正,将RoI中的原始结构信息重新恢复。
姿态参数这里包含刚性对象相对于自身坐标系三个轴的相对旋转量,即:
v=[θ,φ,ψ]
这一旋转量将被用于对步骤S150的姿态刚性变换。
在训练过程中,采用端到端的方式进行,在使用时无须对输入对象进行预处理,直接变换到指定大小后,即可送入网络进行分析。同时,训练过程中采集了在不同光照、不同角度以及与相机不同距离的图像及其对应的3D对象形状模型和姿态参数,并加入不同类型的噪声对数据进行增强,以增加后续各个子模块神经网络的鲁棒性和学习泛化能力,符合“端到端”思想。
步骤S140,形状采样子网络根据形状参数,在训练好的解码器中恢复出形状点云模型。这一步的恢复依赖于良好的解码过程。过程中使用的VAE可以保证采样过程中的鲁棒性。形状采样子网在结构上采用了变分自编码器(Auto-Encoding Variational Bayes),通过编码-解码,算法可以将指定点数的某类集合“压缩”到一个低维的隐空间(latentspace)中,在保证信息量尽可能少损失的前提下,使用更少的数据去表示制定类的点云模型。之后,可以通过解码器恢复原模型的隐空间坐标,及原模型的编码,将作为步骤S130的输出之一。在训练变分自编码器过程中,需要监督重构点云模型与初始点云模型之间的差异。相比于图像,点云的数据点坐标不具备顺序性,因此我们在网络结构中引入了对称函数、而在损失计算中引入了倒角距离(Chamfer Distance)与推土机距离(Earth Mover’sdistance)。
对称函数在对数据进行多层卷积之后,进行整个通道内取最大值的操作,相当于对提取了该通道特征集合中最有效的信息;倒角距离的计算公式为:
Figure BDA0002018138350000051
其中,S1,S2为两个包含点数相同的点云集合,x,y分别为S1,S2中的三维点坐标;
所述推土机距离的计算公式如下:
Figure BDA0002018138350000052
其中,S1,S2为两个包含点数相同的点云集合,Φ是一个传输问题背景下,由S1到S2点集之间的一对一映射,这一映射通过sinkhorn算法加快迭代过程后快速找到。
如图2(a)-2(d)所示为以汽车这一特定类为例,在形状空间编码—解码器演示的预期训练效果;其中每张图的右侧为加载入网络的点云模型,左侧为训练过程中不同轮次的形状输出结构。
步骤S150,按照S130中基于学习得到的姿态参数,对生成的点云模型进行姿态参数进行刚性变换。
步骤S160,最终通过一定的平缓项,优化整个模型后,即可将点云模型逐个输出,在姿态和形状上与图像中对应对象一致。
本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。

Claims (5)

1.一种基于深度学习的单张图像3D对象重建方法,其特征在于,包括如下步骤:
步骤1,输入包含多对象的单张彩色图像;所述单张彩色图像包含在常见视角的一个或多个指定对象;
步骤2,利用预训练的区域候选子网络,输出该单张彩色图像中包含指定对象的各个候选子区域;
步骤3,将各个候选子区域作为输入,并行送入形状-姿态预测子网络;
步骤4,形状-姿态预测子网络根据输入的候选子区域,预测出各个指定对象在三维空间中的形状参数和姿态参数;具体包括如下内容:
设全局图像的内参矩阵为Kc,RoI相机的内参矩阵为Kr
Figure FDA0002637858500000011
其中,fx,fy为相机的焦距,fw,fh为Resize之后的RoI宽度、高度,rw,rh为Resize之前的RoI在原图中的宽度、高度;
设对齐矩阵为RC
Figure FDA0002637858500000012
Ψ表示对齐操作,C是RoI中心相对于原图中心的相对旋转量,由如下公式估计得到:
Figure FDA0002637858500000013
其中,
Figure FDA0002637858500000014
是C的估计值,(xC,yc)是原图中心的坐标,(xr,yr)是RoI在原图中的左上角坐标,(wr,hr)是RoI在原图中的宽度、高度;
对于两个同维列向量,设外积r=p×q则定义对齐操作为:
Figure FDA0002637858500000015
之后即有q=Ψ*p;
网络在获取到RoI之后,对RoI进行一个由以下公式定义的相机视角变换,即:
Figure FDA0002637858500000016
利用H对RoI进行结构校正,将RoI中的原始结构信息进行重新恢复;
姿态参数包含刚性对象相对于自身坐标系三个轴的相对旋转量,即:
v=[θ,α,β];
步骤5,形状采样子网络根据形状参数,解码出对应形状空间的点云模型;
步骤6,按照步骤4输出的姿态参数,对生成的点云模型进行姿态参数进行刚性变换;
步骤7,输出候选子区域所包含指定对象的结构、姿态三维重建结果。
2.根据权利要求1所述的单张图像3D对象重建方法,其特征在于:采用端到端的方式训练神经网络。
3.根据权利要求1所述的单张图像3D对象重建方法,其特征在于:步骤5中,所述形状采样子网为先于步骤4中预测子网络进行训练的3D点云模型生成网络。
4.根据权利要求3所述的单张图像3D对象重建方法,其特征在于:所述形状采样子网在结构上采用了变分自编码器。
5.根据权利要求4所述的单张图像3D对象重建方法,其特征在于:在训练变分自编码器的过程中,在网络结构中引入对称函数、在损失计算中引入了倒角距离与推土机距离;
所述对称函数在对数据进行多层卷积之后,进行整个通道内取最大值的操作;
所述倒角距离的计算公式为:
Figure FDA0002637858500000021
其中,S1,S2为两个包含点数相同的点云集合,x,y分别为S1,S2中的三维点坐标;
所述推土机距离的计算公式如下:
Figure FDA0002637858500000022
其中,S1,S2为两个包含点数相同的点云集合,Φ是一个传输问题背景下,由S1到S2点集之间的一对一映射,该映射通过sinkhorn算法得到。
CN201910270322.0A 2019-04-04 2019-04-04 一种基于深度学习的单张图像3d对象重建方法 Expired - Fee Related CN110070595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910270322.0A CN110070595B (zh) 2019-04-04 2019-04-04 一种基于深度学习的单张图像3d对象重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910270322.0A CN110070595B (zh) 2019-04-04 2019-04-04 一种基于深度学习的单张图像3d对象重建方法

Publications (2)

Publication Number Publication Date
CN110070595A CN110070595A (zh) 2019-07-30
CN110070595B true CN110070595B (zh) 2020-11-24

Family

ID=67367120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910270322.0A Expired - Fee Related CN110070595B (zh) 2019-04-04 2019-04-04 一种基于深度学习的单张图像3d对象重建方法

Country Status (1)

Country Link
CN (1) CN110070595B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490917A (zh) * 2019-08-12 2019-11-22 北京影谱科技股份有限公司 三维重建方法及装置
CN113655678B (zh) * 2020-04-29 2023-05-26 西门子(深圳)磁共振有限公司 医学影像系统中3d相机的安装引导方法和装置
CN111724478B (zh) * 2020-05-19 2021-05-18 华南理工大学 一种基于深度学习的点云上采样方法
CN111815698A (zh) * 2020-07-20 2020-10-23 广西安良科技有限公司 人工智能单目3d点云生成方法、装置、终端及存储介质
CN112581459A (zh) * 2020-12-23 2021-03-30 安徽高哲信息技术有限公司 一种农作物分类系统和方法
CN112580540A (zh) * 2020-12-23 2021-03-30 安徽高哲信息技术有限公司 一种人工智能农作物处理系统和方法
CN113205104A (zh) * 2021-04-23 2021-08-03 广西大学 一种基于深度学习的点云补全方法
CN113593007B (zh) * 2021-07-07 2024-04-26 华中科技大学 一种基于变分自编码的单视图三维点云重建方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399649A (zh) * 2018-03-05 2018-08-14 中科视拓(北京)科技有限公司 一种基于级联回归网络的单张图片三维人脸重建方法
CN108765550A (zh) * 2018-05-09 2018-11-06 华南理工大学 一种基于单张图片的三维人脸重建方法
CN109389671A (zh) * 2018-09-25 2019-02-26 南京大学 一种基于多阶段神经网络的单图像三维重建方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831273B2 (en) * 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
US20130107006A1 (en) * 2011-10-28 2013-05-02 New York University Constructing a 3-dimensional image from a 2-dimensional image and compressing a 3-dimensional image to a 2-dimensional image
CN108711185B (zh) * 2018-05-15 2021-05-28 清华大学 联合刚性运动和非刚性形变的三维重建方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399649A (zh) * 2018-03-05 2018-08-14 中科视拓(北京)科技有限公司 一种基于级联回归网络的单张图片三维人脸重建方法
CN108765550A (zh) * 2018-05-09 2018-11-06 华南理工大学 一种基于单张图片的三维人脸重建方法
CN109389671A (zh) * 2018-09-25 2019-02-26 南京大学 一种基于多阶段神经网络的单图像三维重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A novel architecture for converting single 2D image into 3D effect image;Chin-Tung Lin 等;《 2005 9th International Workshop on Cellular Neural Networks and Their Applications》;20051205;第52-55页 *
A Point Set Generation Network for 3D Object Reconstruction from a Single Image;Haoqiang Fan 等;《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20171109;第605-613页 *
基于单张图像的三维重建研究;赵宇;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140515;第I138-2881页 *

Also Published As

Publication number Publication date
CN110070595A (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
CN110070595B (zh) 一种基于深度学习的单张图像3d对象重建方法
CN111325794B (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
Lv et al. Learning rigidity in dynamic scenes with a moving camera for 3d motion field estimation
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
CN108876814B (zh) 一种生成姿态流图像的方法
CN111783582A (zh) 一种基于深度学习的无监督单目深度估计算法
CN113160375A (zh) 一种基于多任务学习算法的三维重建及相机位姿估计方法
CN113421328B (zh) 一种三维人体虚拟化重建方法及装置
US20220012898A1 (en) Neural network systems for decomposing video data into layered representations
WO2024051184A1 (zh) 一种基于光流遮罩的无监督单目深度估计方法
CN117218246A (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN111640172A (zh) 一种基于生成对抗网络的姿态迁移方法
CN114581571A (zh) 基于imu和前向变形场的单目人体重建方法及装置
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
US11887248B2 (en) Systems and methods for reconstructing a scene in three dimensions from a two-dimensional image
Wang et al. CNN-monofusion: online monocular dense reconstruction using learned depth from single view
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
Jia et al. Depth measurement based on a convolutional neural network and structured light
Da Silveira et al. Indoor depth estimation from single spherical images
CN114793457A (zh) 用于改进确定深度图、相对姿势或语义分割的过程的设备和方法
CN116452715A (zh) 动态人手渲染方法、装置及存储介质
Li et al. Sat2vid: Street-view panoramic video synthesis from a single satellite image
CN112308893B (zh) 一种基于迭代搜索策略的单目深度估计方法
Krishnan et al. LANe: Lighting-aware neural fields for compositional scene synthesis
Van Hoorick et al. Generative Camera Dolly: Extreme Monocular Dynamic Novel View Synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200608

Address after: 518054 room a212, Virtual University Park, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen Institute of Southeast University

Applicant after: SOUTHEAST University

Address before: 210000 Jiangsu Road, Jiangning District, Southeast University, No. 2, No.

Applicant before: SOUTHEAST University

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201124