CN106777011A - 一种基于深度多任务学习的文本分类方法 - Google Patents

一种基于深度多任务学习的文本分类方法 Download PDF

Info

Publication number
CN106777011A
CN106777011A CN201611117038.2A CN201611117038A CN106777011A CN 106777011 A CN106777011 A CN 106777011A CN 201611117038 A CN201611117038 A CN 201611117038A CN 106777011 A CN106777011 A CN 106777011A
Authority
CN
China
Prior art keywords
document
learning
representation
tasks
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611117038.2A
Other languages
English (en)
Inventor
张梓滨
潘嵘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201611117038.2A priority Critical patent/CN106777011A/zh
Publication of CN106777011A publication Critical patent/CN106777011A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于深度多任务学习的文本分类方法,该发明利用其它任务训练得到的循环神经网络,结合卷积神经网络的学习能力,得到额外的文档表示,相当于引入了大量外部信息,扩展了文档的语义表示,有效地解决了训练数据不足的问题。本文相较于传统的多任务学习方法,使用了卷积神经网络对辅助任务的底层特征进行特征抽取,能够利用其它任务的特征有效地迁移到本任务,改善了文本分类的性能。

Description

一种基于深度多任务学习的文本分类方法
技术领域
本发明涉及自然语言处理技术领域,更具体地,涉及一种基于深度多任务学习的文本分类方法。
背景技术
随着互联网的发展,话题识别、垃圾邮件鉴别、情感分析等任务的需求也越来越多,而这些任务的基础都是文本分类。文本分类的目标是给定一些文档及其对应类标签作为训练集,通过算法学习一个分类器,能够将测试集中不带标签的文档的类标签预测出来。
现在已有了很多基于深度神经网络的文本分类算法,包括循环神经网络、卷积神经网络、递归卷积神经网络,以及这些网络与注意力机制、记忆模块等的结合。这些神经网络在很多数据集上取得较好的效果,但是他们也很容易遇到由于训练数据不够导致过拟合,只能减小网络规模,从而导致网络学习能力下降的问题。如果我们把自然语言认为是词之间的组合,那么词表的规模经常有数十万,那样bi-gram、tri-gram的规模就非常大了,因此需要神经网络有大量的参数去学习可能出现的组合。神经网络参数规模大、训练数据较少,那么带来的问题就是很容易过拟合,从而在测试集上的泛化能力下降。现在有很多方法都用来改善过拟合问题,比如参数正则化、批归一化等,然而并没有本质上解决训练数据不够的问题。
发明内容
本发明提供一种提高文本分类准确率的基于深度多任务学习的文本分类方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于深度多任务学习的文本分类方法,包括以下步骤:
S1:利用词向量和双向循环网络学习当前任务的文档表示;
S2:利用卷积神经网络,从其他任务的文档表示抽取特征;
S3:利用当前任务的文档表示、其他任务的特征学习分类器。
进一步地,所述步骤S1的具体过程为是:
将所有任务中所有中文文档进行分词,假设总共有N个词,然后赋予每个词一个唯一标示,然后表示成一个K维的向量,即所有词向量行程一个N*K的矩阵,然后使用正态分布随机初始化,词向量矩阵是所有任务共享的;
用词向量和双向循环网络学习当前任务的文档表示,双向循环网络的上文表示学习部分公式为:
双向循环网络的下文表示学习部分公式为:
其中,分别表示文档的上下文表示;ei为词wi的词向量,使用均值为0方差为0.06的正态分布进行随机初始化,训练的时候通过查表得到或使用较大规模的语料及word2vec预词向量同时进行替换掉随机初始化;Wl、Wr、Wrl、Wrr为参数矩阵,分别用在上文词向量、下文词向量、上文循环状态、下文循环状态上;f为非线性激活函数;
将得到所有单词的表示链接到一起,得到整个文档的矩阵表示X,即文档上文向量,下文向量的连接,其中
进一步地,所述步骤S2的具体过程为是:
1)、利用不同宽度的核矩阵对辅助任务的双向循环网络得到的特征进行一维卷积运算,检测出不同宽度的文档潜在候选语义特征:
ci=f(w·xi:i+h-1+b)
其中的w为一个卷积核矩阵;h为卷积核矩阵的宽度,b为偏执项;f为非线性激活函数;
2)对于不同卷积核矩阵得到的潜在语义特征,进行最大池化操作,即每个特征取最大值:
3)、不同卷积核矩阵得到的最大池化特征连接在一起,得到的任务的文档特征,具体公式为:
其中,m为卷积核矩阵的个数。
进一步地,将当前任务的文档语义表示和其他任务的文档表示连接到一起,即得到当前任务的文档的深度多任务文本表示,对该当前任务的文档的深度多任务文本表示进行全连接神经网络的特征学习,在全连接神经网络的输出层,将最终的语义表示赋予softmax操作,根据softmax的输出结果进行分类器学习。
进一步地,所述f为非线性激活函数sigmoid函数。
与现有技术相比,本发明技术方案的有益效果是:
本发明提出的基于深度多任务学习的文本分类方法,利用其它任务训练得到的循环神经网络,结合卷积神经网络的学习能力,得到额外的文档表示,相当于引入了大量外部信息,扩展了文档的语义表示,有效地解决了训练数据不足的问题。本文相较于传统的多任务学习方法,使用了卷积神经网络对辅助任务的底层特征进行特征抽取,能够利用其它任务的特征有效地迁移到本任务,改善了文本分类的性能。
附图说明
图1是本发明提出的深度多任务学习方法流程图;
图2是本发明中使用的双向循环神经网络的结构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1-2所示,一种基于深度多任务学习的文本分类方法,包括以下步骤:
S1:利用词向量和双向循环网络学习当前任务的文档表示;
S2:利用卷积神经网络,从其他任务的文档表示抽取特征;
S3:利用当前任务的文档表示、其他任务的特征学习分类器。
步骤S1的具体过程为是:
将所有任务中所有中文文档进分词,假设总共有N个词,然后赋予每个词一个唯一标示,然后表示成一个K维的向量,即所有词向量行程一个N*K的矩阵,然后使用正态分布随机初始化,词向量矩阵是所有任务共享的;
用词向量和双向循环网络学习当前任务的文档表示,双向循环网络的上文表示学习部分公式为:
双向循环网络的下文表示学习部分公式为:
其中,分别表示文档的上下文表示;ei为词wi的词向量,使用均值为0方差为0.06的正态分布进行随机初始化,训练的时候通过查表得到或使用较大规模的语料及word2vec预词向量同时进行替换掉随机初始化;Wl、Wr、Wrl、Wrr为参数矩阵,分别用在上文词向量、下文词向量、上文循环状态、下文循环状态上;f为非线性激活函数sigmoid函数;
将得到所有单词的表示链接到一起,得到整个文档的矩阵表示X,即文档上文向量,下文向量的连接,其中
步骤S2的具体过程为是:
1)、利用不同宽度的核矩阵对辅助任务的双向循环网络得到的特征进行一维卷积运算,检测出不同宽度的文档潜在候选语义特征:
ci=f(w·xi:i+h-1+b)
其中的w为一个卷积核矩阵;h为卷积核矩阵的宽度,b为偏执项;f为非线性激活函数sigmoid函数;
2)对于不同卷积核矩阵得到的潜在语义特征,进行最大池化操作,即每个特征取最大值:
3)、不同卷积核矩阵得到的最大池化特征连接在一起,得到的任务的文档特征,具体公式为:
其中,m为卷积核矩阵的个数。
将当前任务的文档语义表示和其他任务的文档表示连接到一起,即得到当前任务的文档的深度多任务文本表示,对该当前任务的文档的深度多任务文本表示进行全连接神经网络的特征学习,在全连接神经网络的输出层,将最终的语义表示赋予softmax操作,根据softmax的输出结果进行分类器学习。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种基于深度多任务学习的文本分类方法,其特征在于,包括以下步骤:
S1:利用词向量和双向循环网络学习当前任务的文档表示;
S2:利用卷积神经网络,从其他任务的文档表示抽取特征;
S3:利用当前任务的文档表示、其他任务的特征学习分类器。
2.根据权利要求1所述的基于深度多任务学习的文本分类方法,其特征在于,所述步骤S1的具体过程为是:
将所有任务中所有中文文档进分词,假设总共有N个词,然后赋予每个词一个唯一标示,然后表示成一个K维的向量,即所有词向量行程一个N*K的矩阵,然后使用正态分布随机初始化,词向量矩阵是所有任务共享的;
用词向量和双向循环网络学习当前任务的文档表示,双向循环网络的上文表示学习部分公式为:
h i l = f ( W r l h i - 1 + W l e i )
双向循环网络的下文表示学习部分公式为:
h i r = f ( W r r h i - 1 + W r e i )
其中,分别表示文档的上下文表示;ei为词wi的词向量,使用均值为0方差为0.06的正态分布进行随机初始化,训练的时候通过查表得到或使用较大规模的语料及word2vec预词向量同时进行替换掉随机初始化;Wl、Wr、Wrl、Wrr为参数矩阵,分别用在上文词向量、下文词向量、上文循环状态、下文循环状态上;f为非线性激活函数;
将得到所有单词的表示链接到一起,得到整个文档的矩阵表示X,即文档上文向量,下文向量的连接,其中
3.根据权利要求2所述的基于深度多任务学习的文本分类方法,其特征在于,所述步骤S2的具体过程为是:
1)、利用不同宽度的核矩阵进行一维卷积运算,检测出不同宽度的文档潜在候选语义特征:
ci=f(w·xi:i+h-1+b)
其中的w为一个卷积核矩阵;h为卷积核矩阵的宽度,b为偏置项;f为非线性激活函数;
2)对于不同卷积核矩阵得到的潜在语义特征,进行最大池化操作,即每个特征取最大值:
c ^ = m a x ( c 1 , c 2 , ... , c n - h + 1 )
3)、不同卷积核矩阵得到的最大池化特征连接在一起,得到的任务的文档特征,具体公式为:
z = [ c ^ 1 , c ^ 2 , ... , c ^ m ]
其中,m为卷积核矩阵的个数。
4.根据权利要求3所述的基于深度多任务学习的文本分类方法,其特征在于,将当前任务的文档语义表示和其他任务的文档表示连接到一起,即得到当前任务的文档的深度多任务文本表示,对该当前任务的文档的深度多任务文本表示进行全连接神经网络的特征学习,在全连接神经网络的输出层,将最终的语义表示赋予softmax操作,根据softmax的输出结果进行分类器学习。
5.根据权利要求4所述的基于深度多任务学习的文本分类方法,其特征在于,所述f为非线性激活函数sigmoid函数。
CN201611117038.2A 2016-12-07 2016-12-07 一种基于深度多任务学习的文本分类方法 Pending CN106777011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611117038.2A CN106777011A (zh) 2016-12-07 2016-12-07 一种基于深度多任务学习的文本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611117038.2A CN106777011A (zh) 2016-12-07 2016-12-07 一种基于深度多任务学习的文本分类方法

Publications (1)

Publication Number Publication Date
CN106777011A true CN106777011A (zh) 2017-05-31

Family

ID=58882393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611117038.2A Pending CN106777011A (zh) 2016-12-07 2016-12-07 一种基于深度多任务学习的文本分类方法

Country Status (1)

Country Link
CN (1) CN106777011A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358193A (zh) * 2017-07-07 2017-11-17 南京天数信息科技有限公司 基于InceptionV3+全连接网络的皮肤真菌识别检测方法
CN107656990A (zh) * 2017-09-14 2018-02-02 中山大学 一种基于字和词两个层面特征信息的文本分类方法
CN108334499A (zh) * 2018-02-08 2018-07-27 海南云江科技有限公司 一种文本标签标注设备、方法和计算设备
CN108537624A (zh) * 2018-03-09 2018-09-14 西北大学 一种基于深度学习的旅游服务推荐方法
CN108647206A (zh) * 2018-05-04 2018-10-12 重庆邮电大学 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法
CN109308355A (zh) * 2018-09-17 2019-02-05 清华大学 法律判决结果预测方法及装置
CN109446332A (zh) * 2018-12-25 2019-03-08 银江股份有限公司 一种基于特征迁移和自适应学习的人民调解案例分类系统及方法
CN109471945A (zh) * 2018-11-12 2019-03-15 中山大学 基于深度学习的医疗文本分类方法、装置及存储介质
CN109492108A (zh) * 2018-11-22 2019-03-19 上海唯识律简信息科技有限公司 基于深度学习的多级融合文档分类方法和系统
CN110377727A (zh) * 2019-06-06 2019-10-25 深思考人工智能机器人科技(北京)有限公司 一种基于多任务学习的多标签文本分类方法和装置
CN111316281A (zh) * 2017-07-26 2020-06-19 舒辅医疗 基于机器学习的自然语言情境中数值数据的语义分类
CN111356997A (zh) * 2017-08-03 2020-06-30 皇家飞利浦有限公司 具有颗粒化注意力的层次神经网络
CN111460157A (zh) * 2020-04-01 2020-07-28 哈尔滨理工大学 用于多领域文本分类的循环卷积多任务学习方法
CN111652332A (zh) * 2020-06-09 2020-09-11 山东大学 基于二分类的深度学习手写中文字符识别方法及系统
CN113590819A (zh) * 2021-06-30 2021-11-02 中山大学 一种大规模类别层级文本分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049118A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 畳み込みニューラルネットワーク分類器システム、その訓練方法、分類方法および用途
CN103678580A (zh) * 2013-12-07 2014-03-26 浙江大学 一种用于文本分类的多任务机器学习方法及其装置
CN106096004A (zh) * 2016-06-23 2016-11-09 北京工业大学 一种建立大规模跨领域文本情感倾向性分析框架的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049118A (ja) * 2012-08-31 2014-03-17 Fujitsu Ltd 畳み込みニューラルネットワーク分類器システム、その訓練方法、分類方法および用途
CN103679185A (zh) * 2012-08-31 2014-03-26 富士通株式会社 卷积神经网络分类器系统、其训练方法、分类方法和用途
CN103678580A (zh) * 2013-12-07 2014-03-26 浙江大学 一种用于文本分类的多任务机器学习方法及其装置
CN106096004A (zh) * 2016-06-23 2016-11-09 北京工业大学 一种建立大规模跨领域文本情感倾向性分析框架的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PENGFEI LIU ET AL: "Recurrent Neural Network for Text Classification with Multi-Task Learning", 《PROCEEDINGS OF THE TWENTY-FIFTH INTERNATIONAL JOINT CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *
SIWEI LAI ET AL: "Recurrent Convolutional Neural Networks for Text Classification", 《PROCEEDINGS OF THE TWENTY-NINTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107358193A (zh) * 2017-07-07 2017-11-17 南京天数信息科技有限公司 基于InceptionV3+全连接网络的皮肤真菌识别检测方法
CN111316281A (zh) * 2017-07-26 2020-06-19 舒辅医疗 基于机器学习的自然语言情境中数值数据的语义分类
CN111316281B (zh) * 2017-07-26 2024-01-23 舒辅医疗 基于机器学习的自然语言情境中数值数据的语义分类方法以及系统
CN111356997B (zh) * 2017-08-03 2024-04-09 皇家飞利浦有限公司 具有颗粒化注意力的层次神经网络
CN111356997A (zh) * 2017-08-03 2020-06-30 皇家飞利浦有限公司 具有颗粒化注意力的层次神经网络
CN107656990A (zh) * 2017-09-14 2018-02-02 中山大学 一种基于字和词两个层面特征信息的文本分类方法
CN108334499A (zh) * 2018-02-08 2018-07-27 海南云江科技有限公司 一种文本标签标注设备、方法和计算设备
CN108334499B (zh) * 2018-02-08 2022-03-18 海南云江科技有限公司 一种文本标签标注设备、方法和计算设备
CN108537624A (zh) * 2018-03-09 2018-09-14 西北大学 一种基于深度学习的旅游服务推荐方法
CN108537624B (zh) * 2018-03-09 2021-08-03 西北大学 一种基于深度学习的旅游服务推荐方法
CN108647206B (zh) * 2018-05-04 2021-11-12 重庆邮电大学 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法
CN108647206A (zh) * 2018-05-04 2018-10-12 重庆邮电大学 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法
CN109308355A (zh) * 2018-09-17 2019-02-05 清华大学 法律判决结果预测方法及装置
CN109308355B (zh) * 2018-09-17 2020-03-13 清华大学 法律判决结果预测方法及装置
CN109471945A (zh) * 2018-11-12 2019-03-15 中山大学 基于深度学习的医疗文本分类方法、装置及存储介质
CN109471945B (zh) * 2018-11-12 2021-11-23 中山大学 基于深度学习的医疗文本分类方法、装置及存储介质
CN109492108B (zh) * 2018-11-22 2020-12-15 上海唯识律简信息科技有限公司 基于深度学习的多级融合文档分类方法和系统
CN109492108A (zh) * 2018-11-22 2019-03-19 上海唯识律简信息科技有限公司 基于深度学习的多级融合文档分类方法和系统
CN109446332A (zh) * 2018-12-25 2019-03-08 银江股份有限公司 一种基于特征迁移和自适应学习的人民调解案例分类系统及方法
CN109446332B (zh) * 2018-12-25 2023-08-25 银江技术股份有限公司 一种基于特征迁移和自适应学习的人民调解案例分类系统及方法
CN110377727B (zh) * 2019-06-06 2022-06-17 深思考人工智能机器人科技(北京)有限公司 一种基于多任务学习的多标签文本分类方法和装置
CN110377727A (zh) * 2019-06-06 2019-10-25 深思考人工智能机器人科技(北京)有限公司 一种基于多任务学习的多标签文本分类方法和装置
CN111460157B (zh) * 2020-04-01 2023-03-28 哈尔滨理工大学 用于多领域文本分类的循环卷积多任务学习方法
CN111460157A (zh) * 2020-04-01 2020-07-28 哈尔滨理工大学 用于多领域文本分类的循环卷积多任务学习方法
CN111652332A (zh) * 2020-06-09 2020-09-11 山东大学 基于二分类的深度学习手写中文字符识别方法及系统
CN113590819A (zh) * 2021-06-30 2021-11-02 中山大学 一种大规模类别层级文本分类方法
CN113590819B (zh) * 2021-06-30 2024-01-02 中山大学 一种大规模类别层级文本分类方法

Similar Documents

Publication Publication Date Title
CN106777011A (zh) 一种基于深度多任务学习的文本分类方法
CN105868184B (zh) 一种基于循环神经网络的中文人名识别方法
Basu et al. An MLP based Approach for Recognition of HandwrittenBangla'Numerals
CN110263174B (zh) —基于焦点关注的主题类别分析方法
CN112733866A (zh) 一种提高可控图像文本描述正确性的网络构建方法
CN114821223A (zh) 预训练图像文本模型处理方法和图文检索系统
CN113516198B (zh) 一种基于记忆网络和图神经网络的文化资源文本分类方法
CN112231477A (zh) 一种基于改进胶囊网络的文本分类方法
CN111475622A (zh) 一种文本分类方法、装置、终端及存储介质
Joshi et al. Deep learning based Gujarati handwritten character recognition
Elleuch et al. Towards unsupervised learning for Arabic handwritten recognition using deep architectures
Gautam et al. Recognition of Brahmi words by using deep convolutional neural network
Hajihashemi et al. A pattern recognition based Holographic Graph Neuron for Persian alphabet recognition
Parameshachari et al. Comparative Analysis of Handwritten Text Recognition using CNN and SVM
Panda et al. Complex odia handwritten character recognition using deep learning model
Raja et al. A novel Tamil character recognition using decision tree classifier
CN116756605A (zh) 一种基于ernie_cn-gru语步自动识别方法、系统、设备及介质
CN116775880A (zh) 一种基于标签语义和迁移学习的多标签文本分类方法及系统
CN111026899A (zh) 一种基于深度学习的产品生成方法
Inunganbi et al. Manipuri handwritten character recognition by convolutional neural network
Hijam et al. Convolutional neural network based Meitei Mayek handwritten character recognition
Meng et al. Khmer character recognition using artificial neural network
Bhat et al. Character recognition of Tulu script using convolutional neural network
Halder et al. An Improved Method to Recognize Bengali Handwritten Characters Using CNN
Ajao et al. Offline yoruba word recognition system based on capsule neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170531

RJ01 Rejection of invention patent application after publication