CN110570522B - 一种多视图三维重建方法 - Google Patents

一种多视图三维重建方法 Download PDF

Info

Publication number
CN110570522B
CN110570522B CN201910780910.9A CN201910780910A CN110570522B CN 110570522 B CN110570522 B CN 110570522B CN 201910780910 A CN201910780910 A CN 201910780910A CN 110570522 B CN110570522 B CN 110570522B
Authority
CN
China
Prior art keywords
feature
image
features
view
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910780910.9A
Other languages
English (en)
Other versions
CN110570522A (zh
Inventor
雷建军
宋嘉慧
郭琰
侯春萍
范晓婷
徐立莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910780910.9A priority Critical patent/CN110570522B/zh
Publication of CN110570522A publication Critical patent/CN110570522A/zh
Application granted granted Critical
Publication of CN110570522B publication Critical patent/CN110570522B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种多视图三维重建方法,所述方法包括以下步骤:基于端到端的深度学习框架,以不同视角的多幅彩色图像为网络输入,输出为重建的三维网格模型;该网络首先利用多级融合特征提取模块提取不同尺度的多视角融合特征;基于不同尺度的融合特征利用网格变形模块对输入的初始化椭球网格模型进行变形,重建出与输入图像相对应的三维网格模型。本发明充分利用多视角信息,实现更高的重建精度和更好的重建效果。

Description

一种多视图三维重建方法
技术领域
本发明涉及图像处理、立体视觉技术领域,尤其涉及一种多视图三维重建方法。
背景技术
三维重建作为计算机图形学与计算机视觉领域的热点问题,受到了越来越多的关注。三维重建的任务是在利用视觉检测设备获取图像的前提下,根据二维和三维空间的映射关系,构建场景及场景中对象的三维结构模型。该技术目前已被广泛的应用于城市规划、医学诊断以及无人驾驶等领域,具有重要的研究意义和应用价值。
传统的三维重建方法是利用双目视觉几何的原理,基于视差信息重建复杂的三维场景,从而实现一定的真实感场景建模。但在现实世界中,由于自然场景建模对象具有多样性,以及受相机分辨率低和场景规模要求等因素制约,导致传统的三维重建方法存在建模过程复杂、无法保证真实感等诸多问题。近年来,深度学习在各种计算机视觉任务中都取得了突破,由于深度学习方法能够全面学习图像中的信息并将其抽象为高级语义特征,使得基于深度学习的三维重建得到了研究学者们的广泛关注。
Choy等人提出了三维递归重建神经网络(3D-R2N2),采用ShapeNet数据集生成图像和3D体素,利用基于卷积神经网络和LSTM(长短期记忆网络)的编解码器架构,根据输入图像预测三维体素模型。Kar等人提出了LSM(立体视觉学习)网络,该网络既可以利用单视图线索进行单视图三维重建,同时还能够利用立体视觉整合来自多个视点的信息,进行多视图重建。
Yao等人提出了一种用于多视图三维重建的端到端深度学习体系结构,并在大型室内DTU数据集上进行了实验验证。通过简单的后处理,该方法的三维重建结果显著优于以前的技术水平。然而,由于卷积正则化的高成本损耗,基于深度学习的MVS(多视点三维重建网络)无法应用于高分辨率场景。近期,Yao等人提出了一种基于递归神经网络(R-MVSNet)的可伸缩多视图立体视觉框架,该框架通过门控递归单元对纵向二维代价图进行序列正则化,减少内存损耗,使高分辨率场景重建成为可能。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
现有技术在利用多视图进行三维重建时,虽然能够较好的利用多个视角的信息,获得三维重建模型,但多数算法对输入多视角图像的数量有严格的要求,导致很难在较多视角图像的情况下重建三维网格模型;现有用于研究三维重建方法的训练数据较为丰富,但是相比于自然界中具有丰富多样性的对象及场景,训练集中重建对象的种类相对较少,限制了三维重建技术在真实场景下的适用性。
发明内容
针对当前三维重建方法主要基于单视图实现的现状,本发明提供了一种多视图三维重建方法,本发明充分利用多视角信息,实现更高的重建精度和更好的重建效果,详见下文描述:
一种多视图三维重建方法,所述方法包括以下步骤:
基于端到端的深度学习框架,以不同视角的多幅彩色图像为网络输入,输出为重建的三维网格模型;
该网络首先利用多级融合特征提取模块提取不同尺度的多视角融合特征;
基于不同尺度的融合特征利用网格变形模块对输入的初始化椭球网格模型进行变形,重建出与输入图像相对应的三维网格模型。
所述多级融合特征提取模块包括:四个不同尺度的多视角融合特征,
基于注意力机制,根据输入的三张不同视角的二维图像提取出四个包含图像信息不同尺度的融合特征。
其中,
第一个视角的图像经过VGG16中部分卷积网络生成大小为56*56*64的特征,以此特征作为多级融合特征提取模块输出的第一个多级融合特征;
特征提取的过程中使用了两种不同卷积层,不仅能提取特征,还能对特征进行下采样。
进一步地,
第二个视角的图像经过VGG16中部分卷积网络后生成大小为28*28*128的特征,使用步长为2、大小为3*3的卷积核将第一个视角图像特征的尺寸大小变为28*28*128,保持与第二个视角图像特征大小一致;
与第二个视角图像特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第二个多级融合特征。
其中,
第三个视角的图像经过VGG16中部分卷积网络后生成大小为14*14*256的特征,使用步长为2、大小为3*3的卷积核将第二个视角图像特征的尺寸大小变为14*14*256,保持与第三个视角图像特征大小一致;
与第三个视角的特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第三个多级融合特征。
其中,
将输入的第三个视角图像经过VGG16中卷积网络后生成尺寸为7*7*512的特征,并将此特征作为提取的第四个多级融合特征。
本发明提供的技术方案的有益效果是:
1、本发明提取不同视角图像在不同维度的特征,并将不同特征进行多级融合,使得网络能够对多视角图像的信息进行更加有效的应用,减少二维信息的丢失概率,增加二维图像特征对三维模型的作用范围;
2、本发明生成的网格模型具有更多的细节信息,表面更光滑,重建精度更高。
附图说明
图1为一种多视图三维重建方法的流程图;
图2为网格变形模块的内部结构图;
图3为本发明提出方法的整体框图;
图4为本发明提出方法与其他多视图重建方法的对比结果的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明实施例基于端到端的深度学习框架,以不同视角的多幅彩色图像为网络输入,输出为重建的三维网格模型。整个网络由多级融合特征提取模块和级联网格变形模块组成。该网络首先利用多级融合特征提取模块提取不同尺度的多视角融合特征,并将其传送到网格变形模块中。然后,基于不同尺度的融合特征利用网格变形模块对输入的初始化椭球网格模型进行变形,重建出与输入图像相对应的三维网格模型。具体实现步骤如下:
一、提取四个不同尺度的多视角融合特征
在基于多视图的三维重建的实际应用中,每个视角的图像都会为目标三维网格模型的重建提供有用信息。但是,单张图像的重建效果往往不尽人意,因为单张图像无法包括三维模型的全部信息,而使用多视图进行三维重建能够补充模型细节,提升模型完整性,从而提升三维模型重建质量。因此,需要探索融合多视图信息的方式,使深度学习网络可以合理利用多视图提供的信息,本发明实施例提出了一种多级融合特征提取模块。
基于注意力机制,网络根据输入的三张不同视角的二维图像提取出四个包含图像信息不同尺度的融合特征(特征尺寸分别为:56*56*64、28*28*128、14*14*256、7*7*512)。
1)提取第一个多级融合特征
第一个视角的图像经过VGG16中部分卷积网络生成大小为56*56*64的特征,以此特征作为多级融合特征提取模块输出的第一个多级融合特征Feature 1。
特征提取的过程中使用了两种不同卷积层。第一种卷积层使用的卷积核大小为3*3,步长为1,用于提取特征;第二种卷积层的卷积核大小为3*3,步长为2,不仅能够提取特征,还能对特征进行下采样。
2)提取第二个多级融合特征
第二个视角的图像经过VGG16中部分卷积网络后生成大小为28*28*128的特征,使用步长为2、大小为3*3的卷积核将第一个视角图像特征的尺寸大小变为28*28*128,保持与第二个视角图像特征大小一致,基于Niu等人提出的残差注意力机制[1]对该特征的重要信息进行强调后,和第二个视角的特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第二个多级融合特征Feature 2。
3)提取第三个多级融合特征
第三个视角的图像经过VGG16中部分卷积网络后生成大小为14*14*256的特征,使用步长为2、大小为3*3的卷积核将第二个视角图像特征的尺寸大小变为14*14*256,保持与第三个视角图像特征大小一致,基于注意力机制对该特征的重要信息进行强调后,和第三个视角的特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第三个多级融合特征Feature 3。
4)提取第四个多级融合特征
最后将输入的第三个视角图像经过VGG16中卷积网络后生成尺寸为7*7*512的特征,并将此特征作为提取的第四个多级融合特征Feature 4。
二、将四个不同尺度的多视角特征进行融合
对于多视图三维重建的目标来说,核心部分在于如何充分利用多视角的图像信息并与三维模型建立联系。在得到四个包含图像信息不同尺度的多视图融合特征之后,将四个不同尺度的多视角融合特征进行双线性差值处理,目的是将四个不同尺度的特征处理成相同尺度的特征。再将处理得到的四个相同尺度的特征进行级联,得到最终的多视角融合特征。
其中,上述双线性差值处理、以及具体级联的步骤均为本领域技术人员所公知,本发明实施例对此不做赘述。
三、利用多视角融合特征进行网格变形
将级联后的多视角融合特征输入到网格变形模块中,从而将多视角融合特征与输入的三维模型的顶点位置相结合,建立二维和三维空间的联系。
其中,参见图2,网格变形模块的核心组成部分是图卷积结构,该模块利用图卷积学习多视角特征与网格之间的关系,从而实现网格变形。网格变形模块利用网格变形模块中的感知特征池化层将输入的融合特征P与输入的网格模型的顶点位置Ci-1相组合,使图像特征附加到网格顶点上,再与顶点特征Fi-1相连,经过图卷积结构生成新的顶点位置Ci和顶点特征Fi。该网格变形块通过将多视角不同尺度的融合特征和输入三维网格模型的顶点位置与顶点特征相结合,建立二维和三维空间的联系,利用图卷积学习多视角特征与网格之间的关系,从而实现网格变形。
四、通过级联网格变形模块得到最终重建模型
参见图3,级联网格变形模块主要包含三个网格变形模块,网格变形模块之间利用基于图的反池化层连接。每个网格变形块有两个输入,一个输入是初始化的椭球网格模型或前一个网格变形块输出的三维网格模型,另一个输入是利用多级融合特征提取模块所提出的融合特征。从第二个网格变形块开始,在每个网格变形块之前均使用一个基于图的反池化层以增加网格顶点和边的数量,提升该网络处理模型细节的能力,同时仍然保持三角形网格拓扑。初始化椭球网格模型只包含较少的顶点和边,经过级联网络变形模块逐步变形后,可以以从粗到细的方式逐渐向目标网格模型靠近。
实施例2
图4给出了在ShapeNet测试数据集上分别使用本发明所提出的多视图三维重建方法与3D-R2N2方法所重建出的模型计算量化指标Chamfer Distance(CD)后所得结果的对比。
图中数据表示的是ShapeNet测试数据集的13类数据CD的平均值,并且CD值越低,代表重建精度越高,方法性能越好。从数据结果可以看出,本发明提出的多视图重建方法CD值最低,重建性能最好。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种多视图三维重建方法,其特征在于,所述方法包括以下步骤:
基于端到端的深度学习框架,以不同视角的多幅彩色图像为网络输入,输出为重建的三维网格模型;
该网络首先利用多级融合特征提取模块提取不同尺度的多视角融合特征;
基于不同尺度的融合特征利用网格变形模块对输入的初始化椭球网格模型进行变形,重建出与输入图像相对应的三维网格模型;
其中,所述多级融合特征提取模块包括:四个不同尺度的多视角融合特征,
基于注意力机制,根据输入的三张不同视角的二维图像提取出四个包含图像信息不同尺度的融合特征;
所述网格变形模块的核心组成部分是图卷积结构,利用图卷积学习多视角特征与网格之间的关系,实现网格变形;网格变形模块利用感知特征池化层将输入的融合特征与输入的网格模型的顶点位置相组合,使图像特征附加到网格顶点上,再与顶点特征相连,经过图卷积结构生成新的顶点位置和顶点特征。
2.根据权利要求1所述的一种多视图三维重建方法,其特征在于,
第一个视角的图像经过VGG16中部分卷积网络生成大小为56*56*64的特征,以此特征作为多级融合特征提取模块输出的第一个多级融合特征;
特征提取的过程中使用了两种不同卷积层,不仅能提取特征,还能对特征进行下采样。
3.根据权利要求1所述的一种多视图三维重建方法,其特征在于,
第二个视角的图像经过VGG16中部分卷积网络后生成大小为28*28*128的特征,使用步长为2、大小为3*3的卷积核将第一个视角图像特征的尺寸大小变为28*28*128,保持与第二个视角图像特征大小一致;
将经过尺寸变化后的第一个视角图像特征与第二个视角图像特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第二个多级融合特征。
4.根据权利要求1所述的一种多视图三维重建方法,其特征在于,
第三个视角的图像经过VGG16中部分卷积网络后生成大小为14*14*256的特征,使用步长为2、大小为3*3的卷积核将第二个视角图像特征的尺寸大小变为14*14*256,保持与第三个视角图像特征大小一致;
将经过尺寸变化后的第二个视角图像特征与第三个视角的特征级联,再利用一个卷积层对级联特征进行简单融合,融合后的特征作为提取的第三个多级融合特征。
5.根据权利要求1所述的一种多视图三维重建方法,其特征在于,
将输入的第三个视角图像经过VGG16中卷积网络后生成尺寸为7*7*512的特征,并将此特征作为提取的第四个多级融合特征。
CN201910780910.9A 2019-08-22 2019-08-22 一种多视图三维重建方法 Active CN110570522B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910780910.9A CN110570522B (zh) 2019-08-22 2019-08-22 一种多视图三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910780910.9A CN110570522B (zh) 2019-08-22 2019-08-22 一种多视图三维重建方法

Publications (2)

Publication Number Publication Date
CN110570522A CN110570522A (zh) 2019-12-13
CN110570522B true CN110570522B (zh) 2023-04-07

Family

ID=68774252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910780910.9A Active CN110570522B (zh) 2019-08-22 2019-08-22 一种多视图三维重建方法

Country Status (1)

Country Link
CN (1) CN110570522B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096234B (zh) * 2019-12-23 2022-09-06 复旦大学 利用多张彩色图片生成三维网格模型的方法及装置
CN111133477B (zh) * 2019-12-20 2023-06-23 驭势科技(浙江)有限公司 三维重建方法、装置、系统和存储介质
CN113256822B (zh) * 2020-02-11 2024-02-13 阿里巴巴集团控股有限公司 空间关系预测、数据处理方法、设备及存储介质
CN111402405A (zh) * 2020-03-23 2020-07-10 北京工业大学 一种基于注意力机制的多视角图像三维重建方法
CN111462329B (zh) * 2020-03-24 2023-09-29 南京航空航天大学 一种基于深度学习的无人机航拍影像的三维重建方法
CN112347932B (zh) * 2020-11-06 2023-01-17 天津大学 一种点云-多视图融合的三维模型识别方法
CN112489217A (zh) * 2020-11-30 2021-03-12 江苏科技大学 一种基于深度学习的上下文感知多视图三维重建系统及其方法
CN112489202A (zh) * 2020-12-08 2021-03-12 甘肃智通科技工程检测咨询有限公司 一种基于多视角深度学习的路面宏观纹理重建方法
CN112688442B (zh) * 2020-12-31 2021-08-24 湖南科技大学 交流牵引电机定子齿肩削角降噪优化设计方法
CN113066168B (zh) * 2021-04-08 2022-08-26 云南大学 一种多视图立体网络三维重建方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389251A (zh) * 2018-03-21 2018-08-10 南京大学 基于融合多视角特征的投影全卷积网络三维模型分割方法
CN109034077A (zh) * 2018-08-01 2018-12-18 湖南拓视觉信息技术有限公司 一种基于多尺度特征学习的三维点云标记方法和装置
CN109063139A (zh) * 2018-08-03 2018-12-21 天津大学 基于全景图及多通道cnn的三维模型分类和检索方法
CN109409222A (zh) * 2018-09-20 2019-03-01 中国地质大学(武汉) 一种基于移动端的多视角人脸表情识别方法
CN110021069A (zh) * 2019-04-15 2019-07-16 武汉大学 一种基于网格形变的三维模型重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8433157B2 (en) * 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389251A (zh) * 2018-03-21 2018-08-10 南京大学 基于融合多视角特征的投影全卷积网络三维模型分割方法
CN109034077A (zh) * 2018-08-01 2018-12-18 湖南拓视觉信息技术有限公司 一种基于多尺度特征学习的三维点云标记方法和装置
CN109063139A (zh) * 2018-08-03 2018-12-21 天津大学 基于全景图及多通道cnn的三维模型分类和检索方法
CN109409222A (zh) * 2018-09-20 2019-03-01 中国地质大学(武汉) 一种基于移动端的多视角人脸表情识别方法
CN110021069A (zh) * 2019-04-15 2019-07-16 武汉大学 一种基于网格形变的三维模型重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images;Nanyang Wang et al.;《arXiv:1804.01654v2》;20180803;全文 *
Using point correspondences without projective deformation for multi-view stereo reconstruction;Adrien Auclair et al.;《2008 15th IEEE International Conference on Image Processing》;20081212;全文 *
基于多视图立体视觉的煤场三维建模方法研究;董建伟等;《燕山大学学报》;20160331(第02期);全文 *
基于多视角卷积神经网络的三维模型分类方法;王鹏宇等;《中国科学:信息科学》;20190415(第04期);全文 *

Also Published As

Publication number Publication date
CN110570522A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110570522B (zh) 一种多视图三维重建方法
CN111462329B (zh) 一种基于深度学习的无人机航拍影像的三维重建方法
CN112396703B (zh) 一种单图像三维点云模型重建方法
CN111652966B (zh) 一种基于无人机多视角的三维重建方法及装置
CN109410307B (zh) 一种场景点云语义分割方法
Flynn et al. Deepstereo: Learning to predict new views from the world's imagery
CN107358576A (zh) 基于卷积神经网络的深度图超分辨率重建方法
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN113345082B (zh) 一种特征金字塔多视图三维重建方法和系统
CN112767253B (zh) 一种多尺度特征融合的双目图像超分辨率重建方法
CN113096239B (zh) 一种基于深度学习的三维点云重建方法
Denninger et al. 3d scene reconstruction from a single viewport
CN110942512B (zh) 基于元学习的室内场景重建方法
CN113077554A (zh) 一种基于任意视角图片的三维结构化模型重建的方法
Häne et al. Hierarchical surface prediction
Liu et al. High-quality textured 3D shape reconstruction with cascaded fully convolutional networks
CN111028335A (zh) 一种基于深度学习的点云数据的分块面片重建方法
Zheng et al. Colorful 3D reconstruction at high resolution using multi-view representation
Wu et al. Remote sensing novel view synthesis with implicit multiplane representations
CN115222917A (zh) 三维重建模型的训练方法、装置、设备及存储介质
CN115272608A (zh) 一种人手重建方法及设备
CN114494395A (zh) 基于平面先验的深度图生成方法、装置、设备及存储介质
CN112116646B (zh) 一种基于深度卷积神经网络的光场图像深度估计方法
CN116758219A (zh) 基于神经网络的区域感知多视角立体匹配三维重建方法
CN113593007B (zh) 一种基于变分自编码的单视图三维点云重建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant