CN110287998A - 一种基于Faster-RCNN的科技文献图片提取方法 - Google Patents

一种基于Faster-RCNN的科技文献图片提取方法 Download PDF

Info

Publication number
CN110287998A
CN110287998A CN201910449243.6A CN201910449243A CN110287998A CN 110287998 A CN110287998 A CN 110287998A CN 201910449243 A CN201910449243 A CN 201910449243A CN 110287998 A CN110287998 A CN 110287998A
Authority
CN
China
Prior art keywords
picture
data
scientific
technical literature
rcnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910449243.6A
Other languages
English (en)
Inventor
傅晨波
李一帆
夏镒楠
沈彬
潘星宇
盛轩硕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910449243.6A priority Critical patent/CN110287998A/zh
Publication of CN110287998A publication Critical patent/CN110287998A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps

Abstract

一种基于Faster‑RCNN的科技文献图片提取方法,包括以下步骤:1)利用网络爬虫获取科技文献数据并对其进行预处理;2)划分数据集,为训练集中的数据制作标签,测试集中的数据不作处理;3)将训练集中的数据输入卷积层,提取图片的特征映射;4)将获取到的特征映射输入RPN模块,得到固定大小的proposal feature maps;5)利用softmax进行具体类别的分类,获得目标的精确位置,计算损失函数,同时更新整个网络的参数得到训练模型;6)利用训练模型对数据集中的数据进行检测,并输出检测到的图片。本发明检测速度快和准确率高,有助于对科技文献图片进行进一步分析与理解,具有较高的实际应用价值。

Description

一种基于Faster-RCNN的科技文献图片提取方法
技术领域
本发明涉及计算机应用技术领域及目标检测领域,特别是涉及一种基于Faster-RCNN的科技文献图片提取方法。
背景技术
科技文献中的图片包含了文献的重要思想与结果,分析与理解科技文献中的图片有助于科研工作者更好的理解文献。为了将图片从文献中提取出来,之前的方法大多是基于手动提取特征,提取的准确率取决于特征提取的好坏,且对于不同科技文献的效果也不鲁棒。此外,直接利用简单的卷积神经网络(CNN)训练模型虽然可以分离提取科技文献中的图片,但准确率依旧不高。
为了更精确地提取科技文献中的图片,本发明利用了目标检测算法Faster-RCNN。目标检测是计算机视觉领域的基础任务之一,被广泛应用于各种实际场景。近年来由于深度学习技术的快速发展,目标检测从基于手动提取特征的传统算法转向基于深度神经网络的检测算法。当前基于深度学习的目标检测方法可以大致分为两大主流方向:单阶段目标检测方法和两阶段目标检测方法。单阶段目标检测是指不进行区域推荐直接得到检测结果,常见的模型有YOLO和SSD模型。两阶段目标检测是指进行区域推荐再得到检测结果,常见模型有R-CNN和Fast-RCNN模型。本发明所使用的Faster-RCNN是Fast-RCNN的改进模型,属于两阶段目标检测模型。相比于Fast-RCNN模型,Faster-RCNN模型检测准确率更高,检测速度更快。
发明内容
为了克服现有技术的不足,本发明提供一种基于Faster-RCNN的科技文献图片提取方法,可以有效提高科技文献中图片检测的速度和准确率,有助于更好的分析与理解科技文献中的图片。
本发明解决其技术问题所采用的技术方案如下:
一种基于Faster-RCNN的科技文献图片提取方法,包括以下步骤:
S1:利用网络爬虫获取科技文献数据并对其进行预处理;
S2:将数据集分为训练集和测试集,为训练集中的数据制作标签,测试集中的数据不作处理;
S3:将训练集中的数据输入卷积层,提取图片的特征映射;
S4:将获取到的特征映射输入RPN(Region Proposal Networks)模块,得到300个proposals,将proposals和S3得到的特征映射输入RoI Pooling层,得到固定大小的proposal feature maps;
S5:利用softmax进行具体类别的分类,获得目标的精确位置,计算损失函数,同时更新整个网络的参数,得到训练模型;
S6:利用训练模型对数据集中的数据进行检测,并输出检测到的图片。
进一步,所述步骤S1中,利用网络爬虫获取科技文献,在做后续步骤前将PDF格式的文献批量转换为JPEG格式的图片,文献的每一页对应一张JPEG格式的图片,所有图片作为一个数据集。
再进一步,所述步骤S2中,选取部分包含科技文献图片的JPEG图片做上标签,标签类别为‘pictures’,并作为训练集;选取JPEG格式的图片制作训练集时需要包含不常见的文献图片布局和尽量多的图片类型,剩余JPEG格式的图片不做处理,作为测试集,统一训练集和测试集的格式。
所述步骤S3中,将图片作为神经网络的输入,其中所选用的Faster-RCNN部分网络包含13个卷积层,13个ReLU层,4个池化层,通过该网络可提取输入图片的特征映射,用于后续的RPN模块和全连接层。
所述步骤S4中,RPN模块主要用于生成region proposals,首先用3*3大小的滑动窗遍历特征映射,生成多个anchor boxes,对其进行裁剪过滤后通过softmax判断anchors属于前景或者后景,再利用边框回归修正anchors,获得较精确的proposals,RoI Pooling层利用RPN生成的proposals和之前已获得的特征映射,得到固定大小的proposal featuremaps。
所述步骤S5中,将RoI Pooling层形成固定大小的proposal feature maps进行全连接操作,利用softmax进行具体类别的分类;同时,利用L1Loss完成边框回归操作获得物体的精确位置,计算损失函数,同时更新整个网络的参数,得到训练模型,训练损失包括分类损失和回归损失,计算式如下:
式中,i表示每一个样本的下标,表示分类损失。分类损失的定义为pi表示预测为某一类别的概率,若当前样本为正样本,则pi=1,若当前样本为负样本,则pi=0,是标注过的真实数据的标签,表示边框回归损失,定义为SmoothL1(t-t*),SmoothL1函数的定义为ti表示正样本到建议区域的平移缩放参数,表示正样本到标注过的真实数据的平移缩放参数。
所述步骤S6中,将测试集输入训练模型中,检测出文献内图片的精确位置并将图片从文献内提取出来。
本发明的有益效果为:由于科技文献中的图片类型、大小等都不相同,用传统的方法很难对所有文献中的图片进行非常准确的检测和识别。本发明选取了不同类型、不同大小等各种不同特征的文献图片作为训练数据并进行标注,取得了丰富的训练样本。本发明利用Faster-RCNN算法检测科技文献中的图片,与传统手动提取特征的方法和利用简单神经网络的方法相比,节省了检测时间并且提高了准确率。
附图说明
图1为本发明实施例的基于Faster-RCNN的科技文献图片提取方法的流程图;
图2为本发明实施例的Faster-RCNN算法流程图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1、图2,一种基于Faster-RCNN的科技文献图片提取方法,本发明使用arXiv论文预印本网站作为实证数据集。所述方法包括数据采集,训练数据标注,Faster-RCNN模型训练和图片检测提取。
本发明包括以下步骤:
S1:利用网络爬虫获取科技文献数据并对其进行预处理;
S2:将数据集分为训练集和测试集,为训练集中的数据制作标签,测试集中的数据不作处理;
S3:将训练集中的数据输入卷积层,提取图片的特征映射;
S4:将获取到的特征映射输入RPN(Region Proposal Networks)模块,得到300个proposals,将proposals和S3得到的特征映射输入RoI Pooling层,得到固定大小的proposal feature maps;
S5:利用softmax进行具体类别的分类,获得目标的精确位置,计算损失函数,同时更新整个网络的参数,得到训练模型;
S6:利用训练模型对数据集中的数据进行检测,并输出检测到的图片。
所述步骤S1中,利用爬虫从arXiv网站中获取PDF格式的科技文献,由于文献大都是PDF格式,在做后续步骤前需要将PDF格式的文献批量转换为JPEG格式的图片,文献的每一页对应一张JPEG格式的图片,所有图片作为一个数据集。
所述步骤S2中,在图片数据集内选取部分包含科技文献图片的JPEG图片,利用图片标注工具如LabelImg为科技文献图片做上标签,标签类别为‘pictures’,并作为训练集;值得注意的是,为了使训练效果更好,选取JPEG格式的图片制作训练集时需要包含不常见的文献图片布局和尽量多的图片类型,剩余JPEG格式的图片不做处理,作为测试集,将训练集和测试集制作成PASCAL VOC2007数据集的格式。
所述步骤S3中,将图片作为神经网络的输入,其中所选用的Faster-RCNN部分网络包含13个卷积层,13个ReLU层,4个池化层,通过该网络可提取输入图片的特征映射,用于后续的RPN模块和全连接层。
所述步骤S4中,RPN模块主要用于生成region proposals,首先用3*3大小的滑动窗遍历特征映射,生成多个anchor boxes,对其进行裁剪过滤后通过softmax判断anchors属于前景或者后景,再利用边框回归修正anchors,获得较精确的proposals,RoI Pooling层利用RPN生成的proposals和之前已获得的特征映射,得到固定大小的proposal featuremaps。
所述步骤S5中,将RoI Pooling层形成固定大小的proposal feature maps进行全连接操作,利用softmax进行具体类别的分类,同时,利用L1Loss完成边框回归操作获得物体的精确位置,计算损失函数,同时更新整个网络的参数,得到训练模型,训练损失包括分类损失和回归损失,计算式如下:
式中,i表示每一个样本的下标,表示分类损失。分类损失的定义为pi表示预测为某一类别的概率,若当前样本为正样本,则pi=1,若当前样本为负样本,则pi=0,是标注过的真实数据的标签。表示边框回归损失,定义为SmoothL1(t-t*),SmoothL1函数的定义为ti表示正样本到建议区域的平移缩放参数,表示正样本到标注过的真实数据的平移缩放参数。
所述步骤S6中,将测试集输入训练模型中,检测出文献内图片的精确位置并将图片从文献内提取出来。
如上所述为本发明从科技文献中提取图片的实施例介绍,本发明利用已标注的训练数据,通过Faster-RCNN算法得到训练模型,再使用模型检测文献中的图片并进行提取工作。本发明相比于传统手动提取特征的方法和简单的神经网络方法,具有检测速度快和准确率高的优势。经试验得出准确率与训练迭代次数有关,当迭代次数较少时,准确率明显偏低,但迭代次数过多会产生过拟合的问题,同样导致准确率降低,因此需要设置一个合适的迭代次数。最终的检测结果,如表1所示。
表1
以上所述,仅为本发明专利较佳的实施例,对本发明而言仅仅是说明性,而非限制性,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (7)

1.一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述方法包括以下步骤:
S1:利用网络爬虫获取科技文献数据并进行预处理;
S2:将数据集分为训练集和测试集,为训练集中的数据制作标签,测试集中的数据不作处理;
S3:将训练集中的数据输入卷积层,提取图片的特征映射;
S4:将获取到的特征映射输入RPN模块,得到300个proposals,将proposals和S3得到的特征映射输入RoIPooling层,得到固定大小的proposal feature maps;
S5:利用softmax进行具体类别的分类,最终获得目标的精确位置,计算损失以更新整个网络的参数,得到训练模型;
S6:利用训练模型对数据集中的数据进行检测,并输出检测到的图片。
2.如权利要求1所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S1中,利用网络爬虫从互联网中获取PDF格式的科技文献,在做后续步骤前将PDF格式的文献批量转换为JPEG格式的图片,文献的每一页对应一张JPEG格式的图片,所有图片作为一个数据集。
3.如权利要求1或2所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S2中,在图片数据集内选取部分包含科技文献图片的JPEG图片,利用图片标注工具如LabelImg为科技文献图片做上标签,标签类别为‘pictures’,并作为训练集;选取JPEG格式的图片制作训练集时需要包含不常见的文献图片布局和尽量多的图片类型,剩余JPEG格式的图片不做处理,作为测试集,将训练集和测试集制作成PASCAL VOC2007数据集的格式。
4.如权利要求1或2所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S3中,将图片作为神经网络的输入,其中所选用的Faster-RCNN部分网络包含13个卷积层,13个ReLU层,4个池化层,通过该网络可提取输入图片的特征映射,用于后续的RPN模块和全连接层。
5.如权利要求4所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S4中,RPN模块用于生成region proposals,首先用3*3大小的滑动窗遍历特征映射,生成多个anchor boxes,对其进行裁剪过滤后通过softmax判断anchors属于前景或者后景,再利用边框回归修正anchors,获得较精确的proposals,RoI Pooling层利用RPN生成的proposals和之前已获得的特征映射,得到固定大小的proposal feature maps。
6.如权利要求5所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S5中,将RoIPooling层形成固定大小的proposal feature maps进行全连接操作,利用softmax进行具体类别的分类;同时,利用L1 Loss完成边框回归操作获得物体的精确位置,计算损失函数,更新整个网络的参数,得到训练模型并保存,训练损失包括分类损失和回归损失,计算式如下:
式中,i表示每一个样本的下标,表示分类损失,分类损失的定义为pi表示预测为某一类别的概率,若当前样本为正样本,则pi=1,若当前样本为负样本,则pi=0,是标注过的真实数据的标签,表示边框回归损失,定义为SmoothL1(t-t*),SmoothL1函数的定义为ti表示正样本到建议区域的平移缩放参数,表示正样本到标注过的真实数据的平移缩放参数。
7.如权利要求1或2所述的一种基于Faster-RCNN的科技文献图片提取方法,其特征在于,所述步骤S6中,将测试集输入训练模型中,检测出文献内图片的精确位置并将图片从文献内提取出来。
CN201910449243.6A 2019-05-28 2019-05-28 一种基于Faster-RCNN的科技文献图片提取方法 Pending CN110287998A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910449243.6A CN110287998A (zh) 2019-05-28 2019-05-28 一种基于Faster-RCNN的科技文献图片提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910449243.6A CN110287998A (zh) 2019-05-28 2019-05-28 一种基于Faster-RCNN的科技文献图片提取方法

Publications (1)

Publication Number Publication Date
CN110287998A true CN110287998A (zh) 2019-09-27

Family

ID=68002426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910449243.6A Pending CN110287998A (zh) 2019-05-28 2019-05-28 一种基于Faster-RCNN的科技文献图片提取方法

Country Status (1)

Country Link
CN (1) CN110287998A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062953A (zh) * 2019-12-17 2020-04-24 北京化工大学 一种超声图像中甲状旁腺增生的识别方法
CN111368682A (zh) * 2020-02-27 2020-07-03 上海电力大学 一种基于faster RCNN台标检测与识别的方法及系统
CN111476165A (zh) * 2020-04-07 2020-07-31 同方赛威讯信息技术有限公司 基于深度学习的电子文档中标题印章指纹特征检测方法
CN111783590A (zh) * 2020-06-24 2020-10-16 西北工业大学 一种基于度量学习的多类别小目标检测方法
CN111814841A (zh) * 2020-06-17 2020-10-23 浙江工业大学 一种基于深度学习的科技文献图像处理系统
CN111931581A (zh) * 2020-07-10 2020-11-13 威海精讯畅通电子科技有限公司 一种基于卷积神经网络农业害虫识别方法、终端及可读存储介质
CN111986145A (zh) * 2020-07-09 2020-11-24 浙江工业大学 一种基于Faster-RCNN的轴承滚子瑕疵检测方法
CN112464652A (zh) * 2020-11-24 2021-03-09 昆明理工大学 一种从文献中提取插图及其标题的方法
CN113111858A (zh) * 2021-05-12 2021-07-13 数库(上海)科技有限公司 自动检测图片中表格的方法、装置、设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2275844A (en) * 1993-03-02 1994-09-07 Info Enterprises Inc Image Zone Discrimination Using a Neural Network
US20050281455A1 (en) * 2004-06-17 2005-12-22 Chun-Chia Huang System of using neural network to distinguish text and picture in images and method thereof
CN107451602A (zh) * 2017-07-06 2017-12-08 浙江工业大学 一种基于深度学习的果蔬检测方法
CN108734694A (zh) * 2018-04-09 2018-11-02 华南农业大学 基于faster r-cnn的甲状腺肿瘤超声图像自动识别方法
CN109711474A (zh) * 2018-12-24 2019-05-03 中山大学 一种基于深度学习的铝材表面缺陷检测算法
CN109766884A (zh) * 2018-12-26 2019-05-17 哈尔滨工程大学 一种基于Faster-RCNN的机场跑道异物检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2275844A (en) * 1993-03-02 1994-09-07 Info Enterprises Inc Image Zone Discrimination Using a Neural Network
US20050281455A1 (en) * 2004-06-17 2005-12-22 Chun-Chia Huang System of using neural network to distinguish text and picture in images and method thereof
CN107451602A (zh) * 2017-07-06 2017-12-08 浙江工业大学 一种基于深度学习的果蔬检测方法
CN108734694A (zh) * 2018-04-09 2018-11-02 华南农业大学 基于faster r-cnn的甲状腺肿瘤超声图像自动识别方法
CN109711474A (zh) * 2018-12-24 2019-05-03 中山大学 一种基于深度学习的铝材表面缺陷检测算法
CN109766884A (zh) * 2018-12-26 2019-05-17 哈尔滨工程大学 一种基于Faster-RCNN的机场跑道异物检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DARIO AUGUSTO BORGES OLIVEIRA 等: ""Fast CNN-based document layout analysis"", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS (ICCVW)》 *
R. GIRSHICK: ""Fast R-CNN"", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *
SHAOQING REN 等: ""Faster R-CNN: Towards Real-Time Object"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
任少卿: ""基于特征共享的高效物体检测"", 《中国博士学位论文全文数据库电子技术及信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062953A (zh) * 2019-12-17 2020-04-24 北京化工大学 一种超声图像中甲状旁腺增生的识别方法
CN111368682A (zh) * 2020-02-27 2020-07-03 上海电力大学 一种基于faster RCNN台标检测与识别的方法及系统
CN111368682B (zh) * 2020-02-27 2023-12-12 上海电力大学 一种基于faster RCNN台标检测与识别的方法及系统
CN111476165A (zh) * 2020-04-07 2020-07-31 同方赛威讯信息技术有限公司 基于深度学习的电子文档中标题印章指纹特征检测方法
CN111814841A (zh) * 2020-06-17 2020-10-23 浙江工业大学 一种基于深度学习的科技文献图像处理系统
CN111783590A (zh) * 2020-06-24 2020-10-16 西北工业大学 一种基于度量学习的多类别小目标检测方法
CN111986145A (zh) * 2020-07-09 2020-11-24 浙江工业大学 一种基于Faster-RCNN的轴承滚子瑕疵检测方法
CN111931581A (zh) * 2020-07-10 2020-11-13 威海精讯畅通电子科技有限公司 一种基于卷积神经网络农业害虫识别方法、终端及可读存储介质
CN112464652A (zh) * 2020-11-24 2021-03-09 昆明理工大学 一种从文献中提取插图及其标题的方法
CN113111858A (zh) * 2021-05-12 2021-07-13 数库(上海)科技有限公司 自动检测图片中表格的方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
CN110287998A (zh) 一种基于Faster-RCNN的科技文献图片提取方法
Yuan et al. A large chinese text dataset in the wild
CN107346420A (zh) 一种基于深度学习的自然场景下文字检测定位方法
CN107392141B (zh) 一种基于显著性检测和lsd直线检测的机场提取方法
CN107423760A (zh) 基于预分割和回归的深度学习目标检测方法
CN111095296A (zh) 使用机器学习对字符串进行分类
CN107679531A (zh) 基于深度学习的车牌识别方法、装置、设备及存储介质
CN107729865A (zh) 一种手写体数学公式离线识别方法及系统
CN107688808A (zh) 一种快速的自然场景文本检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN107527054B (zh) 基于多视角融合的前景自动提取方法
CN105608454A (zh) 基于文字结构部件检测神经网络的文字检测方法及系统
CN105931253A (zh) 一种基于半监督学习相结合的图像分割方法
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN103761743A (zh) 一种基于图像融合分割的实木地板表面缺陷检测方法
CN108021869A (zh) 一种结合高斯核函数的卷积神经网络跟踪方法
CN104751153B (zh) 一种识别场景文字的方法及装置
CN112883926B (zh) 表格类医疗影像的识别方法及装置
Zhu et al. Deep residual text detection network for scene text
CN111027443A (zh) 一种基于多任务深度学习的票据文本检测方法
CN106446890A (zh) 一种基于窗口打分和超像素分割的候选区域提取方法
CN105825228A (zh) 图像识别方法及装置
Park et al. A study on the automatic digital DB of boring log using AI
Shah et al. A math formula extraction and evaluation framework for PDF documents
CN104036494A (zh) 一种用于水果图像的快速匹配计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190927