CN109272010B - 基于卷积神经网络的多尺度遥感图像融合方法 - Google Patents

基于卷积神经网络的多尺度遥感图像融合方法 Download PDF

Info

Publication number
CN109272010B
CN109272010B CN201810839303.0A CN201810839303A CN109272010B CN 109272010 B CN109272010 B CN 109272010B CN 201810839303 A CN201810839303 A CN 201810839303A CN 109272010 B CN109272010 B CN 109272010B
Authority
CN
China
Prior art keywords
image
fusion
pan
scale
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810839303.0A
Other languages
English (en)
Other versions
CN109272010A (zh
Inventor
张小利
李雄飞
叶发杰
于爽
王婧
骆实
朱芮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810839303.0A priority Critical patent/CN109272010B/zh
Publication of CN109272010A publication Critical patent/CN109272010A/zh
Application granted granted Critical
Publication of CN109272010B publication Critical patent/CN109272010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Abstract

本发明提出一种基于卷积神经网络的多尺度遥感图像融合算法,该方法包括:第一,借助卷积神经网络的性质,构建一个符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像;第二,构建一个合适的训练数据集,在该训练集上成功训练提出的融合模型;第三,将遥感全色图像Pan图像转换为模型需要的待融合图像;第四,将转化后的近似Pan图像和多光谱图像MS输入训练好的融合模型,得到最终的融合图像。本发明所述方法从大量数据中学习一个自适应的多尺度融合函数,其由统计学习而来,不是人为设计,更加合理。实验结果表明,所述基于卷积神经网络的多尺度融合方法能够较好地处理不同卫星、不同波段的遥感图像。

Description

基于卷积神经网络的多尺度遥感图像融合方法
技术领域
本发明属于遥感图像融合领域,具体地讲,设计一种能够将全色图像Pan图像和多光谱图像MS图像融合在一起,使得融合图像兼具高光谱和高空间分辨率的融合方法。
背景技术
近年来,遥感图像在各种应用中被广泛使用,例如,环境管理与检测、地质危害预防、精准农业、国防安全等等。受到卫星传感器的限制,我们只能单独获取到高光谱分辨率的多光谱图像MS和高空间分辨率的全色图像Pan。但是在实际的应用中,我们需要同时用到高光谱和高空间分辨率这两种信息,高光谱分辨率用于精确地物分类,高空间分辨率则用于地物形状和纹理的描述。遥感图像融合的目的就在于结合多光谱图像的光谱信息和全色图像的空间信息,使得融合之后的图像同时具有这两种信息,达到优势互补的效果。(应用前景)
传统的遥感图像融合方法可以大致分为成分替换(Component Substitution——CS),多尺度分析(MultiResolution Analysis——MRA)和混合方法(结合CS和MRA),CS方法有IHS、主成分分析PCA和Brovey变换等等;MRA方法有拉普拉斯金字塔方法、高通滤波器方法和轮廓波等等;混合方法有结合曲波和HIS、结合小波变换和稀疏表示等。
IHS、PCA和Brovey等通常能够在融合图像中很好的保留Pan图像的空间信息,并且实现简单,但是,它们没有考虑Pan图像和MS图像的局部差异,使得最后的融合图像存在显著的光谱扭曲。在多尺度分析中,图像分解的级数和使用的滤波器会对融合结果产生很大的影响,典型的多尺度分析方法如小波变换,融合结果存在明显的空间信息失真。混合方法虽然结合了CS和MRA,但是最终的融合图像还是存在不同程度的光谱失真和空间结构失真,融合效果和选用的具体融合方法存在很大的关联。
上述融合方法的核心算法基本都是基于人为制定的融合规则,其最终融合效果也因融合规则而变,并且这些融合规则对待融合图像本身有较强的依赖性,同一方法在不同的遥感图像上所取得的融合效果也不尽相同,普适性较弱。融合规则可以视为一个融合函数,其输入为Pan和MS图像,输出为融合图像。寻找一个合适的融合函数是遥感图像融合的关键,因为它直接决定了最终融合效果的好坏。
发明内容
本发明的目的在于克服现有技术的不足,解决遥感图像融合效果因融合规则而差异巨大的现象,提出一种基于卷积神经网络的多尺度遥感图像融合方法,其融合效果优于传统融合方法,适应性更强。
为了实现上述目的,本发明所采用的技术方案是:
一种基于卷积神经网络的多尺度遥感图像融合方法,其关键步骤包括:
步骤一,借助卷积神经网络的性质,构建一个合适的、符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像;
步骤二,构建一个合适的训练数据集,该训练数据集类似于真实遥感图像,符合遥感图像融合要求,在该训练集上成功训练提出的融合模型;
步骤三,将遥感全色图像Pan图像转换为模型需要的待融合图像;
步骤四,将转化后的近似Pan图像同多光谱图像MS输入训练好的融合模型,得到最终的融合图像。
步骤一所述的构建多尺度卷积神经网络融合模型中,模型的构建过程为:
先将Pan和MS图像分别通过一层3×3卷积得到尺度1待融合图像Pan1和MS1,将Pan和MS在纵深方向上拼接,通过一层1×1卷积得到尺度0融合图像,Fusion0,将Pan1、MS1和Fusion0在纵深方向拼接,通过一层1×1卷积得到尺度1融合图像Fusion1;
将Pan1和MS1图像分别通过一层3×3卷积得到尺度2待融合图像Pan2和MS2,将Pan2、MS2和Fusion1在纵深方向拼接,通过一层1×1卷积得到尺度2融合图像Fusion2;
将Pan2和MS2图像分别通过一层3×3卷积得到尺度3待融合图像Pan3和MS3,将Pan3、MS3和Fusion2在纵深方向拼接,通过一层1×1卷积得到尺度3融合图像Fusion3,Fusion3即为最终的融合图像。
在步骤二中,构建一个合适的训练数据集,在该数据集上训练融合模型,数据集的构建方式为:
选择分类标准数据集CIFAR图像集作为训练数据集,其中每一张图像大小为32×32。将原始图像作为融合图像Fusion,将Fusion分辨率降低为原来1/2作为MS图像,将Fusion转换到HLS颜色空间,取L分量作为近似Pan图像。
使用均方误差MSE作为损失函数L,通过上述构建的数据集成功训练回归融合模型,L的计算方式如下:
Figure BDA0001745204240000021
在步骤三中,将遥感全色图像Pan图像转换为模型需要的近似全色图像,转换方式如下:
首先,计算MS图像对应的L图像L_MS,使用双三次插值法将其上采样至Pan大小。之后,使用NSCT分别将L_MS和Pan进行多级分解,先进行三级非下采样金字塔分解,再将高频带通经过方向滤波器组得到方向子带。在L_MS的多级分解结果中,将低频带通保留,将高频带通的方向分解子带用Pan分解结果中对应的子带替换。最后再将替换后的分解结果进行NSCT逆变换来重构L_Pan,此时L_Pan同时保留了L_MS的光谱信息和Pan的空间信息,L_Pan也就是融合模型中所用到的的近似全色图像。
在步骤四中,将转化后的近似Pan图像和多光谱图像MS输入训练好的融合模型,得到最终的融合图像。
本发明提出方法的主要优点有:(1)通过卷积神经网络来回归学习一个具有高鲁棒性且具有很好融合效果的复杂融合函数,最终融合图像能够最大程度的保留多光谱图像的光谱信息,以及全色图像的空间信息;(2)整个的融合过程只需要先通过一个简单通用的转化方法将Pan转化为模型需要的近似Pan,然后直接将近似Pan和MS输入融合模型即可得到最终融合图像,不需要其他琐碎处理,简单高效,具有端到端特性;(3)一旦模型训练结束,融合过程就是一个简单的矩阵计算任务,相比于其他多尺度分解算法,融合计算时间很短。
附图说明
图1是本发明基于卷积神经网络的多尺度遥感图像融合方法的流程图;
图2是本发明提出的基于卷积神经网络的多尺度融合模型;
图3是模型训练所需要的训练数据集示例;
图4是Landsat测试图像的融合结果。
具体实施方式
下面结合附图对本发明进行详细说明,以便本领域的技术人员更好地理解本发明。需要指出的是,在不脱离本发明核心思想的前提下,本领域的技术人员可以对本发明做出一些改进,这些都属于本发明的保护范围。
如图1所示,本发明提供一种基于卷积神经网络的多尺度遥感图像融合方法,包括如下步骤:
步骤一,借助卷积神经网络的性质,构建一个合适的、符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像,模型的构建过程为:
先将Pan和MS图像分别通过一层3×3卷积得到尺度1待融合图像Pan1和MS1,将Pan和MS在纵深方向上拼接,通过一层1×1卷积得到尺度0融合图像,Fusion0,将Pan1、MS1和Fusion0在纵深方向拼接,通过一层1×1卷积得到尺度1融合图像Fusion1;
将Pan1和MS1图像分别通过一层3×3卷积得到尺度2待融合图像Pan2和MS2,将Pan2、MS2和Fusion1在纵深方向拼接,通过一层1×1卷积得到尺度2融合图像Fusion2;
将Pan2和MS2图像分别通过一层3×3卷积得到尺度3待融合图像Pan3和MS3,将Pan3、MS3和Fusion2在纵深方向拼接,通过一层1×1卷积得到尺度3融合图像Fusion3,Fusion3即为最终的融合图像。
步骤二,构建一个合适的训练数据集,该训练数据集类似于真实遥感图像,符合遥感图像融合要求,在该训练集上成功训练提出的融合模型,数据集的构建方式为:
选择分类标准数据集CIFAR图像集作为训练数据集,其中每一张图像大小为32×32。将原始图像作为融合图像Fusion,将Fusion分辨率降低为原来1/2作为MS图像,将Fusion转换到HLS颜色空间,取L分量作为近似Pan图像。
使用均方误差MSE作为损失函数L,通过上述构建的数据集成功训练回归融合模型,L的计算方式如下:
步骤三,将遥感全色图像Pan图像转换为模型需要的近似全色图像,转换方式如下:
首先,计算MS图像对应的L图像L_MS,使用双三次插值法将其上采样至Pan大小。之后,使用NSCT分别将L_MS和Pan进行多级分解,先进行三级非下采样金字塔分解,再将高频带通经过方向滤波器组得到方向子带。在L_MS的多级分解结果中,将低频带通保留,将高频带通的方向分解子带用Pan分解结果中对应的子带替换。最后再将替换后的分解结果进行NSCT逆变换来重构L_Pan,此时L_Pan同时保留了L_MS的光谱信息和Pan的空间信息,L_Pan也就是融合模型中所用到的的近似全色图像。
步骤四,将转化后的近似Pan图像和多光谱图像MS输入训练好的融合模型,得到最终的融合图像。
本实施例中,图2是本发明提出的基于卷积神经网络的多尺度融合模型,其输入为待融合图像,输出直接为融合图像。图3为模型训练所需要的训练数据集示例,(a)为融合图像(原始图片),(b)为MS图像(低分辨率图像),(c)为APan图像(HLS空间L分量)。可以看出,这些图像符合我们的训练需求,以及遥感图像本身的特点。
图4为Landsat测试图像的融合结果。从图中可以看出PCA方法的融合图像颜色较浅,存在光谱扭曲;在HSV方法的融合图像中,有些区域颜色发亮,有些区域的发暗,光谱失真比较严重;HCS方法的融合图像纹理比较模糊,且存在光谱失真;Brovey方法空间结构保留的较好,但是光谱失真比较严重;HPF方法光谱保留的较好,但是空间结构存在失真;相比于这些算法,本文提出的方法能够同时很好的保留多光谱图像的光谱信息和全色图像的空间信息。表1为图4各种算法融合结果的评测结果,其中,各个指标对应的最好结果用粗体标出。从中可以看出本文使用的融合方法在六项指标上均优于其他算法,从客观角度印证了主观评价。
表1.图4融合图像评测结果
Figure BDA0001745204240000051

Claims (3)

1.一种基于卷积神经网络的多尺度遥感图像融合方法,其特征在于,通过如下步骤实现:
步骤一,借助卷积神经网络的性质,构建一个符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像;
步骤二,构建一个合适的训练数据集,该训练数据集类似于真实遥感图像,符合遥感图像融合要求,在该训练集上成功训练提出的融合模型;
步骤三,将遥感全色图像Pan图像转换为模型需要的待融合图像;
步骤四,将转化后的近似Pan图像同多光谱图像MS输入训练好的融合模型,得到最终的融合图像;
步骤一所述的构建多尺度卷积神经网络融合模型中,模型的构建过程为:
先将Pan和MS图像分别通过一层3×3卷积得到尺度1待融合图像Pan_conv1和MS_conv1,将Pan和MS在纵深方向上拼接,通过一层1×1卷积得到尺度0融合图像Fusion0,将Pan_conv1、MS_conv1和Fusion0在纵深方向拼接,通过一层1×1卷积得到尺度1融合图像Fusion1;
将Pan_conv1和MS_conv1图像分别通过一层3×3卷积得到尺度2待融合图像Pan_conv2和MS_conv2,将Pan_conv2、MS_conv2和Fusion1在纵深方向拼接,通过一层1×1卷积得到尺度2融合图像Fusion2;
将Pan_conv2和MS_conv2图像分别通过一层3×3卷积得到尺度3待融合图像Pan_conv3和MS_conv3,将Pan_conv3、MS_conv3和Fusion2在纵深方向拼接,通过一层1×1卷积得到尺度3融合图像Fusion3,Fusion3即为最终的融合图像。
2.根据权利要求1所述的一种基于卷积神经网络的多尺度遥感图像融合方法,其特征在于,在步骤二中,构建一个合适的训练数据集,在该数据集上训练融合模型,数据集的构建方式为:
选择分类标准数据集CIFAR图像集作为训练数据集,其中每一张图像大小为32×32,将原始图像作为融合图像Fusion,将Fusion分辨率降低为原来1/2作为MS图像,将Fusion转换到HLS颜色空间,取L分量作为近似Pan图像;
使用均方误差MSE作为损失函数L,通过上述构建的数据集成功训练回归融合模型,L的计算方式如下:
Figure FDA0003041797430000011
3.根据权利要求1所述的一种基于卷积神经网络的多尺度遥感图像融合方法,其特征在于,在步骤三中,将遥感全色图像Pan图像转换为模型需要的近似Pan图像,转换方式如下:
首先,计算MS图像对应的L图像L_MS,使用双三次插值法将其上采样至Pan大小,之后,使用NSCT分别将L_MS和Pan进行多级分解,先进行三级非下采样金字塔分解,再将高频带通经过方向滤波器组得到方向子带,在L_MS的多级分解结果中,将低频带通保留,将高频带通的方向分解子带用Pan分解结果中对应的子带替换,最后再将替换后的分解结果进行NSCT逆变换来重构L_Pan,此时L_Pan同时保留了L_MS的光谱信息和Pan的空间信息,L_Pan也就是融合模型中所用到的近似全色图像。
CN201810839303.0A 2018-07-27 2018-07-27 基于卷积神经网络的多尺度遥感图像融合方法 Active CN109272010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810839303.0A CN109272010B (zh) 2018-07-27 2018-07-27 基于卷积神经网络的多尺度遥感图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810839303.0A CN109272010B (zh) 2018-07-27 2018-07-27 基于卷积神经网络的多尺度遥感图像融合方法

Publications (2)

Publication Number Publication Date
CN109272010A CN109272010A (zh) 2019-01-25
CN109272010B true CN109272010B (zh) 2021-06-29

Family

ID=65153248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810839303.0A Active CN109272010B (zh) 2018-07-27 2018-07-27 基于卷积神经网络的多尺度遥感图像融合方法

Country Status (1)

Country Link
CN (1) CN109272010B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919123B (zh) * 2019-03-19 2021-05-11 自然资源部第一海洋研究所 基于多尺度特征深度卷积神经网络的海面溢油检测方法
CN110120047B (zh) * 2019-04-04 2023-08-08 平安科技(深圳)有限公司 图像分割模型训练方法、图像分割方法、装置、设备及介质
CN110443775B (zh) * 2019-06-20 2022-12-16 吉林大学 基于卷积神经网络的离散小波变换域多聚焦图像融合方法
CN110930315B (zh) * 2019-10-23 2022-02-11 西北工业大学 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN110930343A (zh) * 2019-11-22 2020-03-27 南京信息工程大学 基于sr-mdcnn的遥感图像融合方法
CN110986949B (zh) * 2019-12-04 2023-05-09 日照职业技术学院 一种基于人工智能平台下的路径识别方法
CN111080567B (zh) * 2019-12-12 2023-04-21 长沙理工大学 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN111311530B (zh) * 2020-01-22 2022-03-04 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法
CN112150564A (zh) * 2020-08-21 2020-12-29 哈尔滨理工大学 基于深度卷积神经网络医学图像融合算法
CN112488978A (zh) * 2021-02-05 2021-03-12 湖南大学 基于模糊核估计的多光谱图像融合成像方法及系统
CN112991249B (zh) * 2021-03-18 2023-11-24 国网经济技术研究院有限公司 一种基于深度可分离cnn模型的遥感图像融合方法
CN113129247B (zh) * 2021-04-21 2023-04-07 重庆邮电大学 基于自适应多尺度残差卷积的遥感图像融合方法及介质
CN113222835B (zh) * 2021-04-22 2023-04-14 海南大学 基于残差网络的遥感全色和多光谱图像分布式融合方法
CN113793289B (zh) * 2021-09-10 2023-06-20 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8320712B2 (en) * 2008-03-07 2012-11-27 Korea Aerospace Research Institute Satellite image fusion method and system
CN104112263A (zh) * 2014-06-28 2014-10-22 南京理工大学 基于深度神经网络的全色图像与多光谱图像融合的方法
CN104616261A (zh) * 2015-02-09 2015-05-13 内蒙古科技大学 一种基于光谱特性的Shearlet域多光谱与全色图像融合方法
CN106251320A (zh) * 2016-08-15 2016-12-21 西北大学 基于联合稀疏与结构字典的遥感图像融合方法
CN107203985A (zh) * 2017-05-18 2017-09-26 北京联合大学 一种端到端深度学习框架下的多曝光图像融合方法
CN107909015A (zh) * 2017-10-27 2018-04-13 广东省智能制造研究所 基于卷积神经网络及空谱信息融合的高光谱图像分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699790B2 (en) * 2011-11-18 2014-04-15 Mitsubishi Electric Research Laboratories, Inc. Method for pan-sharpening panchromatic and multispectral images using wavelet dictionaries

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8320712B2 (en) * 2008-03-07 2012-11-27 Korea Aerospace Research Institute Satellite image fusion method and system
CN104112263A (zh) * 2014-06-28 2014-10-22 南京理工大学 基于深度神经网络的全色图像与多光谱图像融合的方法
CN104616261A (zh) * 2015-02-09 2015-05-13 内蒙古科技大学 一种基于光谱特性的Shearlet域多光谱与全色图像融合方法
CN106251320A (zh) * 2016-08-15 2016-12-21 西北大学 基于联合稀疏与结构字典的遥感图像融合方法
CN107203985A (zh) * 2017-05-18 2017-09-26 北京联合大学 一种端到端深度学习框架下的多曝光图像融合方法
CN107909015A (zh) * 2017-10-27 2018-04-13 广东省智能制造研究所 基于卷积神经网络及空谱信息融合的高光谱图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Residual Convolutional Neural Network for Pan-Shaprening;Yizhou Rao 等;《2017 International Workshop on Remote Sensing with Intelligent Processing(RSIP)》;20170626;参见摘要和第2节 *
卷积神经网络图像超分辨率在图像融合技术中的应用研究;钟金英;《中国优秀硕士学位论文全文数据库电子期刊 信息科技辑》;20180415;第2018年卷(第4期);第I138-2400页 *
基于深度支撑值学习网络的遥感图像融合;李红 等;《计算机学报》;20160831;第39卷(第8期);第1583-1596页 *

Also Published As

Publication number Publication date
CN109272010A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
CN109272010B (zh) 基于卷积神经网络的多尺度遥感图像融合方法
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
CN103093444B (zh) 基于自相似性和结构信息约束的图像超分辨重建方法
CN112184554B (zh) 一种基于残差混合膨胀卷积的遥感图像融合方法
CN107358260B (zh) 一种基于表面波cnn的多光谱图像分类方法
CN109064396A (zh) 一种基于深度成分学习网络的单幅图像超分辨率重建方法
CN110415199B (zh) 基于残差学习的多光谱遥感图像融合方法及装置
CN110544212B (zh) 基于层级特征融合的卷积神经网络高光谱图像锐化方法
CN108269244B (zh) 一种基于深度学习和先验约束的图像去雾系统
CN112419155B (zh) 一种全极化合成孔径雷达影像超分辨率重建方法
CN109859110A (zh) 基于光谱维控制卷积神经网络的高光谱图像全色锐化方法
CN111161141B (zh) 基于频带间注意力机制对抗学习高光谱单图超分辨率方法
CN114862731B (zh) 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN111223049A (zh) 一种基于结构-纹理分解的遥感图像变分融合方法
CN113793289A (zh) 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN107274360A (zh) 一种基于Fisher字典学习、低秩表示的高光谱图像去噪方法
CN113902646A (zh) 基于深浅层特征加权融合网络的遥感影像泛锐化方法
CN113628143A (zh) 一种基于多尺度卷积的加权融合图像去雾方法及装置
CN111563866B (zh) 一种多源遥感图像融合方法
CN105719323A (zh) 一种基于优化图谱理论的高光谱降维方法
CN113628111B (zh) 基于梯度信息约束的高光谱图像超分辨方法
CN109785253B (zh) 一种基于增强反投影的全色锐化后处理方法
CN110807746B (zh) 一种基于细节内嵌注入卷积神经网络高光谱图像锐化方法
Xu et al. AS 3 ITransUNet: Spatial-Spectral Interactive Transformer U-Net with Alternating Sampling for Hyperspectral Image Super-Resolution
Hu et al. Spatial dynamic selection network for remote-sensing image fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant