CN109146937A - 一种基于深度学习的电力巡检影像密集匹配方法 - Google Patents
一种基于深度学习的电力巡检影像密集匹配方法 Download PDFInfo
- Publication number
- CN109146937A CN109146937A CN201810963100.2A CN201810963100A CN109146937A CN 109146937 A CN109146937 A CN 109146937A CN 201810963100 A CN201810963100 A CN 201810963100A CN 109146937 A CN109146937 A CN 109146937A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- deep learning
- channel
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及影像密集匹配,特别是涉及一种基于深度学习的电力巡检影像密集匹配方法。本发明将深度学习网络PSMNet加入到航空影像密集匹配的影像当中,通过网络中的金字塔池化层更好地吸收了影像的上下文信息,通过网络中的三维卷积层,更加精确地获得了影像的视差。这种方法更有效的克服了由于纹理重复,纹理缺乏,高亮区域等一系列传统软件算法难以有效匹配的病态区域。为电力线巡检建模提供了更加有效的信息。
Description
技术领域
本发明涉及影像密集匹配,特别是涉及一种基于深度学习的电力巡检影像密集匹配方法。
背景技术
无人机影像进行电力巡线相比于人工巡线有着高效、安全等多方面的优点。其中,利用航空影像影像进行密集匹配,从而获得逐个像素的视差值是恢复电力沿线真实三维模型的重要步骤。传统的密集匹配方法按照计算区域大小不同可以分为局部算法,全局算法和半全局算法。
局部算法通常以像素或者局部区域为计算对象,而全局算法通常以整幅图的信息作为计算对象来算出视差。相比之下,局部算法的优点是易于操作,计算量较少,但局部算法往往受到局部异常信息的影响,效果受到限制。相对于局部算法,全局算法的精度更高,效果也更好,不过全局算法对于计算的时间要求更长一些。
半全局匹配算法是一种介于全局与局部之间的算法。这种算法保留了全局算法的高精度特点,但并没有采用全部像素的信息建立能量函数,从而节约了计算的时间。该算法在密集匹配传统算法中占有非常重要的地位,在深度学习方法出现之前,这种算法的效果是非常出色的。下面按照局部和全局算法分别介绍几种经典的密集匹配算法。
传统的影像密集匹配方法往往受到光照不均匀、低纹理或重复纹理等一些列病态问题的影响导致匹配精度,鲁棒性受到影响。
发明内容
本发明设计了一种基于深度学习的密集匹配方法PSMNet(PyramidStereoMatchingNetwork)网络,这种方法能够较好的提取影像的上下文信息从而克服密集匹配中病态区域的问题,从而提升影像密集匹配的精度和鲁棒性。
本发明的技术方案是;一种基于深度学习的电力巡检影像密集匹配方法,包括以下步骤;
S1:搜集计算机视觉公开数据集KITTI2015、Flyingthings3D的数据,包括提供的原始立体像对和其对应的深度图,作为之后训练的样本;
S2:构建并设计网络模型,在原有的PSMNet网络的基础上引入新的激活函数ReLU-Leaky,并输入S1中获得的训练样本进行训练。
S3:将无人机航拍的电力线巡检影像放入S2中训练好的模型,获得电力线巡检影像的深度图。
进一步,步骤S2中的整个网络模型的架构包括普通卷积层,金字塔池化层,匹配代价聚合,三维卷积层和视差回归层;
普通卷积层包含了两层网络,用于初步的影像特征提取;第一层包含了九十六个大小为3*3大小的卷积核;第二层包含四个通道,每个通道使用卷积的大小均为3*3,前两个通道的卷积核个数为三十二和六十四,后两个通道的卷积个数为一百二十八,且采用了空洞卷积的方法;
金字塔池化层包含两个步骤,池化过程和融合过程;首先,分别将原始图像重采样为64*64,32*32,16*16,8*8四种尺度的影像,然后分别对不同尺度的影像采用池化操作,这里采用的是平均池化的方法;其次,将经过金字塔池化的特征图进行融合和拼接;
在匹配代价聚合的过程中,使用的数学公式如下:
从而获得了初步的匹配代价;
三维卷积层用于提高初步匹配代价聚合的精度,三维卷积层分为四个部分;第一个部分分为两个通道,每个通道包含32个3*3*3大小的普通三维卷积;第二个部分是堆叠沙漏卷积结构,分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;第三个部分也是一种堆叠沙漏的结构,包含四个通道,前两个通道包含了128个3*3*3大小的沙漏卷积结构,后两个通道包含了96个3*3*3大小的反卷积结构;第四部分与第三部分、第二部分为相同的结构,同样分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;
视差回归层当中,根据三维卷积层精化后的匹配代价,进行视差回归,得到最终的视差和深度,最终深度预测的公式如下:
进一步,步骤S2中使用了残差神经网络的思想。
进一步,所述的残差神经网络具体表现为,在三维卷积层的过程中,分别在第二部分、第三部分,第四部分堆叠沙漏卷积结构中加入了跳跃链接的卷积结果。
进一步,步骤S2中的实现框架为Pytorch框架。
进一步,步骤S3中所使用的电力线巡检的原始影像为无人机航拍影像,航高在100—200m。
本发明的有益效果是;
本发明将深度学习网络PSMNet加入到航空影像密集匹配的影像当中,通过网络中的金字塔池化层更好地吸收了影像的上下文信息,通过网络中的三维卷积层,更加精确地获得了影像的视差。这种方法更有效的克服了由于纹理重复,纹理缺乏,高亮区域等一系列传统软件算法难以有效匹配的病态区域。为电力线巡检建模提供了更加有效的信息。
附图说明
图1是PSMNet网络的步骤示意图。
图2是PSMNet网络的结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
实施例1:
本发明使用了一种深度神经网络结构PSMNet网络来进行密集匹配,PSMNet网络的结构和步骤见图1和图2所示:
附图2是PSMNet的主要结构,左右输入的立体像对分别通过两个权值共享的卷积神经网络通道,用来提取原始图像中的特征,将特征不断抽象出来。该网络首先对两幅图片分别进行卷积操作,这两个卷积操作实施权值共享。然后进入金字塔池化层,金字塔池化层通过在不同的尺度上进行池化融合,能够提取出多尺度的信息。接下来通过一系列的池化操作来实现匹配代价聚合的过程。在这一步之后,再将聚合的结果通过3D CNN模型对其进行精化。最后通过回归的方法输出估计得深度。
一种基于深度学习的电力巡检影像密集匹配方法,包括以下步骤;
S1:搜集计算机视觉公开数据集KITTI2015、Flyingthings3D的数据,包括提供的原始立体像对和其对应的深度图,作为之后训练的样本;
S2:构建并设计网络模型,在原有的PSMNet网络的基础上引入新的激活函数ReLU-Leaky,并输入S1中获得的训练样本进行训练。
S3:将无人机航拍的电力线巡检影像放入S2中训练好的模型,获得电力线巡检影像的深度图。
KITTI是一个完善且多用途的自动驾驶场景下的计算机视觉算法测试集。该数据集主要用于评测立体图像(Stereo),光流(optical flow)、3D物体检测(objectdetection)、视觉测距(visual odometry)等计算机视觉领域。本发明实验主要采用的是KITTI2015数据集的图片,一共有200张带有真实视差的立体像对,将200对图片分为180对图片用于训练,剩下的20对立体像对用于测试。
Flyingthings3D数据集是一个大型的数据集,相比较于前两种数据集,它的立体数据量达到了39000个立体像对,提供了每个立体像对的左视图,右视图和真实视差图。基于其庞大的数据量,这个数据集非常适合于深度学习的训练过程。
在本实施例中,步骤S2中的整个网络模型的架构包括普通卷积层,金字塔池化层,匹配代价聚合,三维卷积层和视差回归层;
普通卷积层包含了两层网络,用于初步的影像特征提取;第一层包含了九十六个大小为3*3大小的卷积核;第二层包含四个通道,每个通道使用卷积的大小均为3*3,前两个通道的卷积核个数为三十二和六十四,后两个通道的卷积个数为一百二十八,且采用了空洞卷积的方法;具体网络结构见表一;
表一 普通卷积层结构
金字塔池化层包含两个步骤,池化过程和融合过程;首先,分别将原始图像重采样为64*64,32*32,16*16,8*8四种尺度的影像,然后分别对不同尺度的影像采用池化操作,这里采用的是平均池化的方法;其次,将经过金字塔池化的特征图进行融合和拼接;具体网络结构见表二;
表二 金字塔池化层结构
在匹配代价聚合的过程中,使用的数学公式如下:
从而获得了初步的匹配代价;
三维卷积层用于提高初步匹配代价聚合的精度,三维卷积层分为四个部分;第一个部分分为两个通道,每个通道包含32个3*3*3大小的普通三维卷积;第二个部分是堆叠沙漏卷积结构,分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;第三个部分也是一种堆叠沙漏的结构,包含四个通道,前两个通道包含了128个3*3*3大小的沙漏卷积结构,后两个通道包含了96个3*3*3大小的反卷积结构;第四部分与第三部分、第二部分为相同的结构,同样分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;具体网络结构见表三;
表三 三维卷积层结构
视差回归层当中,根据三维卷积层精化后的匹配代价,进行视差回归,得到最终的视差和深度,最终深度预测的公式如下:
在本实施例中,步骤S2中使用了残差神经网络的思想。
在本实施例中,所述的残差神经网络具体表现为,在三维卷积层的过程中,分别在第二部分、第三部分,第四部分堆叠沙漏卷积结构中加入了跳跃链接的卷积结果。
在本实施例中,步骤S2中的实现框架为Pytorch框架。
在本实施例中,步骤S3中所使用的电力线巡检的原始影像为无人机航拍影像,航高在100—200m。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,包括以下步骤;
S1:搜集计算机视觉公开数据集KITTI2015、Flyingthings3D的数据,包括提供的原始立体像对和其对应的深度图,作为之后训练的样本;
S2:构建并设计网络模型,在原有的PSMNet网络的基础上引入新的激活函数ReLU-Leaky,并输入S1中获得的训练样本进行训练。
S3:将无人机航拍的电力线巡检影像放入S2中训练好的模型,获得电力线巡检影像的深度图。
2.根据权利要求1所述的一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,步骤S2中的整个网络模型的架构包括普通卷积层,金字塔池化层,匹配代价聚合,三维卷积层和视差回归层;
普通卷积层包含了两层网络,用于初步的影像特征提取;第一层包含了九十六个大小为3*3大小的卷积核;第二层包含四个通道,每个通道使用卷积的大小均为3*3,前两个通道的卷积核个数为三十二和六十四,后两个通道的卷积个数为一百二十八,且采用了空洞卷积的方法;
金字塔池化层包含两个步骤,池化过程和融合过程;首先,分别将原始图像重采样为64*64,32*32,16*16,8*8四种尺度的影像,然后分别对不同尺度的影像采用池化操作,这里采用的是平均池化的方法;其次,将经过金字塔池化的特征图进行融合和拼接;
在匹配代价聚合的过程中,使用的数学公式如下:
从而获得了初步的匹配代价;
三维卷积层用于提高初步匹配代价聚合的精度,三维卷积层分为四个部分;
第一个部分分为两个通道,每个通道包含32个3*3*3大小的普通三维卷积;
第二个部分是堆叠沙漏卷积结构,分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;
第三个部分也是一种堆叠沙漏的结构,包含四个通道,前两个通道包含了128个3*3*3大小的沙漏卷积结构,后两个通道包含了96个3*3*3大小的反卷积结构;第四部分与第三部分、第二部分为相同的结构,同样分为四个通道,前两个通道包含64个3*3*3大小的沙漏卷积,后两个通道包含了64个3*3*3大小的反卷积结构;
视差回归层当中,根据三维卷积层精化后的匹配代价,进行视差回归,得到最终的视差和深度,最终深度预测的公式如下:
3.根据权利要求2所述的一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,步骤S2中使用了残差神经网络的思想。
4.根据权利要求3所述的一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,所述的残差神经网络具体表现为,在三维卷积层的过程中,分别在第二部分、第三部分,第四部分堆叠沙漏卷积结构中加入了跳跃链接的卷积结果。
5.根据权利要求2所述的一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,步骤S2中的实现框架为Pytorch框架。
6.根据权利要求1所述的一种基于深度学习的电力巡检影像密集匹配方法,其特征在于,步骤S3中所使用的电力线巡检的原始影像为无人机航拍影像,航高在100—200m。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810963100.2A CN109146937A (zh) | 2018-08-22 | 2018-08-22 | 一种基于深度学习的电力巡检影像密集匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810963100.2A CN109146937A (zh) | 2018-08-22 | 2018-08-22 | 一种基于深度学习的电力巡检影像密集匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109146937A true CN109146937A (zh) | 2019-01-04 |
Family
ID=64791182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810963100.2A Pending CN109146937A (zh) | 2018-08-22 | 2018-08-22 | 一种基于深度学习的电力巡检影像密集匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109146937A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978936A (zh) * | 2019-03-28 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置、存储介质及设备 |
CN110033483A (zh) * | 2019-04-03 | 2019-07-19 | 北京清微智能科技有限公司 | 基于dcnn深度图生成方法及系统 |
CN110070574A (zh) * | 2019-04-29 | 2019-07-30 | 优乐圈(武汉)科技有限公司 | 一种基于改进PSMNet的双目视觉立体匹配算法 |
CN110398986A (zh) * | 2019-04-28 | 2019-11-01 | 清华大学 | 一种多源数据迁移的无人机密集树林感知技术 |
CN110647745A (zh) * | 2019-07-24 | 2020-01-03 | 浙江工业大学 | 基于深度学习的恶意软件汇编格式的检测方法 |
CN110728706A (zh) * | 2019-09-30 | 2020-01-24 | 西安电子科技大学 | 基于深度学习的sar图像精细配准方法 |
CN111260711A (zh) * | 2020-01-10 | 2020-06-09 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
CN112418336A (zh) * | 2020-11-27 | 2021-02-26 | 广东电网有限责任公司肇庆供电局 | 一种电力线巡检影像密集匹配方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600650A (zh) * | 2016-12-12 | 2017-04-26 | 杭州蓝芯科技有限公司 | 一种基于深度学习的双目视觉深度信息获取方法 |
CN107590831A (zh) * | 2017-08-30 | 2018-01-16 | 电子科技大学 | 一种基于深度学习的立体匹配方法 |
-
2018
- 2018-08-22 CN CN201810963100.2A patent/CN109146937A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600650A (zh) * | 2016-12-12 | 2017-04-26 | 杭州蓝芯科技有限公司 | 一种基于深度学习的双目视觉深度信息获取方法 |
CN107590831A (zh) * | 2017-08-30 | 2018-01-16 | 电子科技大学 | 一种基于深度学习的立体匹配方法 |
Non-Patent Citations (1)
Title |
---|
JIA-REN CHANG等: "Pyramid Stereo Matching Network", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978936B (zh) * | 2019-03-28 | 2022-12-30 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置、存储介质及设备 |
CN109978936A (zh) * | 2019-03-28 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置、存储介质及设备 |
CN110033483A (zh) * | 2019-04-03 | 2019-07-19 | 北京清微智能科技有限公司 | 基于dcnn深度图生成方法及系统 |
CN110398986A (zh) * | 2019-04-28 | 2019-11-01 | 清华大学 | 一种多源数据迁移的无人机密集树林感知技术 |
CN110070574A (zh) * | 2019-04-29 | 2019-07-30 | 优乐圈(武汉)科技有限公司 | 一种基于改进PSMNet的双目视觉立体匹配算法 |
CN110070574B (zh) * | 2019-04-29 | 2023-05-02 | 麦特维斯(武汉)科技有限公司 | 一种基于改进PSMNet的双目视觉立体匹配方法 |
CN110647745A (zh) * | 2019-07-24 | 2020-01-03 | 浙江工业大学 | 基于深度学习的恶意软件汇编格式的检测方法 |
CN110728706A (zh) * | 2019-09-30 | 2020-01-24 | 西安电子科技大学 | 基于深度学习的sar图像精细配准方法 |
CN110728706B (zh) * | 2019-09-30 | 2021-07-06 | 西安电子科技大学 | 基于深度学习的sar图像精细配准方法 |
CN111260711A (zh) * | 2020-01-10 | 2020-06-09 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
CN111260711B (zh) * | 2020-01-10 | 2021-08-10 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
CN112418336A (zh) * | 2020-11-27 | 2021-02-26 | 广东电网有限责任公司肇庆供电局 | 一种电力线巡检影像密集匹配方法 |
CN112418336B (zh) * | 2020-11-27 | 2024-01-23 | 广东电网有限责任公司肇庆供电局 | 一种电力线巡检影像密集匹配方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109146937A (zh) | 一种基于深度学习的电力巡检影像密集匹配方法 | |
CN110458939B (zh) | 基于视角生成的室内场景建模方法 | |
CN106600583B (zh) | 基于端到端神经网络的视差图获取方法 | |
CN110458957A (zh) | 一种基于神经网络的图像三维模型构建方法及装置 | |
CN104376552B (zh) | 一种3d模型与二维图像的虚实配准方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
CN105279789B (zh) | 一种基于图像序列的三维重建方法 | |
CN108090960A (zh) | 一种基于几何约束的目标重建方法 | |
CN105956597A (zh) | 一种基于卷积神经网络的双目立体匹配方法 | |
CN101398933B (zh) | 一种从图像中恢复三维几何信息的方法 | |
CN108038905A (zh) | 一种基于超像素的目标重建方法 | |
CN108288292A (zh) | 一种三维重建方法、装置及设备 | |
CN111832655A (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
CN101739721B (zh) | 基于时变和无序多图像的四维场景建模方法 | |
CN106097436A (zh) | 一种大场景对象的三维重建方法 | |
CN111402311B (zh) | 一种基于知识蒸馏的轻量级立体视差估计方法 | |
CN111046767B (zh) | 一种基于单目图像的3d目标检测方法 | |
CN108171249B (zh) | 一种基于rgbd数据的局部描述子学习方法 | |
Denninger et al. | 3d scene reconstruction from a single viewport | |
CN108154104A (zh) | 一种基于深度图像超像素联合特征的人体姿态估计方法 | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
CN103426200A (zh) | 基于无人机航拍序列图像的树木三维重建方法 | |
CN108648264A (zh) | 基于运动恢复的水下场景重建方法及存储介质 | |
CN103971366A (zh) | 一种基于双权重聚合的立体匹配方法 | |
CN109544621A (zh) | 基于卷积神经网络的光场深度估计方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190104 |
|
RJ01 | Rejection of invention patent application after publication |