CN112487761A - 一种基于图表征融合的问句生成方法及装置 - Google Patents
一种基于图表征融合的问句生成方法及装置 Download PDFInfo
- Publication number
- CN112487761A CN112487761A CN202011351764.7A CN202011351764A CN112487761A CN 112487761 A CN112487761 A CN 112487761A CN 202011351764 A CN202011351764 A CN 202011351764A CN 112487761 A CN112487761 A CN 112487761A
- Authority
- CN
- China
- Prior art keywords
- text
- graph
- question
- dependency syntax
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于图表征融合的问句生成方法及装置,不需要人工制定规则,能够端到端生成问句;突破了传统seq2seq只能序列化处理文本而忽略了文本结构信息的局限,通过在文本编码中引入依存句法信息来模仿人类的推理过程,利用文本结构信息来优化生成问句的质量;给定一段文本和答案,在不依赖人工制定规则模板的条件下,能够端到端生成问句,并且能考虑文本的依存句法等信息,使得生成的问句接近人工提问的质量。
Description
技术领域
本发明涉及文本生成技术领域,尤其涉及一种基于图表征融合的问句生成方法及装置。
背景技术
作为自然语言处理的子任务,问句生成的一个关键应用是为教育领域生成用于阅读理解材料的问题。问句生成模块也可以部署为聊天机器人的组件,使得在多轮对话中聊天机器人能够提出一些问题,提升用户的交互体验。不仅如此,问句生成也能够帮助机器阅读理解任务获取丰富的问答对,辅助机器阅读理解模型的训练,从而开启机器理解人类语言的大门。
早期研究中,问句生成的常规方法是基于规则的方法,其通常步骤可以归纳为:1.文本预处理,包括句法解析,句子简化,语义角色标注;2.根据规则或者语义角色标注方法,识别需要被提问的目标;3.使用规则或模板匹配等方式生成多个问题;4.基于设计好的特征对生成问题进行排序。基于规则的方法,存在的明显缺点包括,需要人为制定规则和模板,制定规则的成本较高,制定的规则只能针对特定领域、扩展性较差,可处理的问题类型有限等。
近年来研究者们不断尝试用神经网络做问句生成。受到机器翻译任务的启发,神经网络的问句生成通常被定义为序列到序列(Sequence-to-Sequence,seq2seq)的学习问题,一种通常的做法是用两个循环神经网络(Recurrent Neural Network,RNN)分别作为编码器和解码器,编码器对输入的文本序列逐一编码,解码器结合注意力机制(AttentionMechanism),输出一段问句序列。基于神经网络的方法,可以端到端进行训练,不需要人工制定规则,同时通过数据驱动,只要有足够的数据,不同领域的内容也可以方便地复用模型。但是,神经网络方法由于普遍采用RNN做序列化编码,与人类理解文本的推理过程不一致,而且忽略了文本的语法结构等信息,所以生成问句的质量仍然有待提升。
综上所述,现有的方法存在的问题有:1、基于规则的方法需要人工制定规则,成本较高、规则的扩展性较差、可处理的问题类型有限;2、基于传统的神经网络seq2seq的方法仅利用词向量等特征,忽略了文本的语法结构等信息;3、单纯的seq2seq对文本进行序列化的建模,与人类理解文本的推理过程不一致,导致生成的问题变得生硬。
发明内容
本发明的目的在于提供一种基于图表征的问句生成方法及装置,用于解决现有的基于规则的方法存在规则制定成本较高、规则的扩展性较差、可处理的问题类型有限等问题,以及基于神经网络seq2seq的方法忽略了文本的语法结构、与人类理解文本的推理过程不一致导致生成的问句质量受影响等问题。
本发明通过以下技术方案来实现上述目的:
一种基于图表征融合的问句生成方法,包括以下步骤:
A、初始化文本、答案的语义编码序列;
B、通过对文本的句法分析,获取文本每个句子的依存句法树,构建整个文本的依存句法图;
C、将文本信息和答案信息进行交互,为文本编码引入答案信息,得到文本的交互编码;
D、基于文本的依存句法图,结合文本的交互编码,构建文本的依存句法图在两个方向的图表征;
E、将文本在依存句法图两个方向的图表征进行融合,得到最终的图表征;
F、根据文本的依存句法图表征,利用问句生成模块生成问句序列。
进一步方案为,所述步骤A中初始化语义编码序列的方法包括:采用词向量随机初始化的表示方法,或基于深度学习的语言模型训练得到的向量表示方法。
进一步方案为,所述步骤B中获取文本每个句子的依存句法树的方法包括:对句子进行依存句法分析。
进一步方案为,所述步骤B中构建整个文本的依存句法图的方法包括:多棵依存句法树合并为依存句法图。
进一步方案为,所述步骤C中将文本信息和答案信息进行交互的方法包括:对步骤A中得到的文本词向量和答案词向量进行深度对齐。
进一步方案为,所述步骤D中构建文本基于依存句法图的两个方向图表征的方法包括:利用自回归模型迭代计算图表征。
进一步方案为,所述步骤E中将文本在依存句法图两个方向的图表征进行融合的方法包括:多个单词的图表征融合为一个句子图表征、两个方向的图表征融合。
进一步方案为,所述步骤F中所述问句生成模块的方法包括:基于循环神经网络的解码模块,文本表征和解码模块输出之间的注意力交互。
进一步方案为,还包括将词向量输入所述问句生成模块进行训练的方法,包括:所述问句生成模块损失函数的设定、迭代更新,所述问句生成模块参数的方法的设定,对所述问句生成模块中各层参数的初始化,各个网络层之间的连接以及对齐。
本发明另一方面还提供了一种基于图表征的问句生成装置,包括:
语义编码初始化模块,用于对输入的文本和答案进行分词,然后将单词转化为对应的词向量;
句法分析模块,用于对文本进行依存句法分析,生成对应的依存句法图;
文本与答案交互模块,用于将答案信息与文本信息进行交互,得到包含答案信息的文本向量;
基于依存句法的图表征构建模块,用于构建文本的基于依存句法关系的图表征;
图表征信息融合模块,用于对整个文本在两个方向的图表征进行融合,同时对文本所有单词的图表征进行融合;
问句生成模块,用于在得到文本的图表征之后对其进行解码并生成质量最优的问句。
本发明的有益效果在于:
本发明的一种基于图表征融合的问句生成方法,不需要人工制定规则,能够端到端生成问句;突破了传统seq2seq只能序列化处理文本而忽略了文本结构信息的局限,通过在文本编码中引入依存句法信息来模仿人类的推理过程,利用文本结构信息来优化生成问句的质量。
本发明的一种基于图表征融合的问句生成装置,给定一段文本和答案,在不依赖人工制定规则模板的条件下,能够端到端生成问句,并且能考虑文本的依存句法等信息,使得生成的问句接近人工提问的质量。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要实用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中的基于图表征的问句生成方法流程图;
图2为本发明中的一棵依存句法树的示例图;
图3为本发明中的多棵依存句法树合并为依存句法图的示例图;
图4为本发明中的基于图表征的问句生成装置结构框图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
实施例一:
图1示出了本发明一种基于图表征的问句生成方法的流程图,包括以下步骤:
A、初始化文本、答案的语义编码序列。
初始化语义编码序列的方法,包括:词向量随机初始化的表示方法,词向量在模型训练过程中根据模型参数的迭代更新而更新。
初始化语义编码序列的方法,还包括:基于深度学习的语言模型训练得到的词向量,这样的词向量有Glove,Word2Vec,Bert等。
B、获取文本每个句子的依存句法树,进而构建整个文本的依存句法图。
获取文本每个句子的依存句法树的方法,包括:对句子进行依存句法分析的方法。
具体为,对句子进行依存句法分析的方法,包括:基于图的依存句法分析方法,将依存句法分析问题转化为从完全有向图中寻找最大生成树的问题;基于转移的依存句法分析方法,将依存句法分析问题转化为寻找最优动作序列的问题。
依存句法树构建的一个例子是:对句子T=“新鲜的水果有营养”,分词得到ToksT=[“新鲜”,“的”,“水果”,“有”,“营养”],用节点表示为NodesT=[1,2,3,4,5],构建的依存句法树为TreeT={[1->2],[1<-3],[3<-4],[4->5]},如图2所示。
构建整个文本的依存句法图的方法,包括:将构建的多棵依存句法树合并为一个依存句法图的方法。
合并依存句法树的做法是:把句子之间的相邻节点用无向边连接起来,得到一个新的图,如图3所示。
C、将文本信息和答案信息进行交互,为文本编码引入答案信息,得到文本的交互编码。
将文本信息和答案信息进行交互的方法,包括:对步骤A中得到的文本词向量和答案词向量进行深度对齐的方法。
对步骤A中得到的文本词向量和答案词向量进行深度对齐的做法是:注意力机制,深度对齐网络(Deep Alignment Network,DAN)等。
D、基于文本的依存句法图,结合文本的交互编码,构建文本的依存句法图在两个方向的图表征。
构建文本基于依存句法图的两个方向图表征的方法,包括:利用自回归模型迭代计算图表征的方法。
自回归模型包括:门控循环单元(Gated Recurrent Unit,GRU),长短期记忆网络(Long-Short Term Memory,LSTM)。
利用自回归模型迭代计算图表征的方法的做法是:将每个文本单词看作一个节点,在第k轮(k=1,2,…,K;K是设定的迭代轮数阈值),根据文本的依存句法图来聚合一个节点与其相邻节点信息,根据节点第k轮的聚合信息和节点第k-1轮的表征,利用自回归模型计算得到节点的第k轮表征。
根据文本的依存句法图来聚合一个节点与其相邻节点信息之前,通过依存句法图的“支配词->从属词”和“从属词<-支配词”两种方向来决定一个节点的相邻节点。例如,在构建“支配词->从属词”方向的图表征时,每个节点只和其所有从属词节点进行聚合;在构建“从属词<-支配词”方向的图表征时,每个节点只和其所有支配词节点进行聚合。
E、融合文本在依存句法图两个方向的图表征,得到最终的图表征。
将文本在依存句法图两个方向的图表征进行融合的方法,包括:多个单词的图表征融合为整个文本图表征的方法,两个方向的图表征融合的方法。
多个单词的图表征融合为一个句子图表征的方法,包括:将多个单词的图表征序列输入池化层进行下采样得到整个文本的图表征。
池化层可以采用的操作不局限于最大池化、平均池化等。
两个方向的图表征融合的方法,包括:图表征的拼接,图表征的相加,图表征的门控融合等。
F、根据文本的依存句法图表征,利用问句生成模块生成问句序列。
问句生成模块采用的方法,包括:基于循环神经网络的解码模块,文本表征和解码模块输出之间的注意力交互机制。
基于循环神经网络的解码模块可以采用的网络单元为LSTM或者GRU。
基于神经网络的解码模块的网络单元进行解码之前,需要用整个文本的图表征来初始化解码模块网络单元的隐藏层。
文本表征和解码模块输出之间的注意力交互机制,可以采用Soft Attention机制,使得解码时关注更重要的单词,淡化非重要单词的影响。
所述基于图表征的问句生成方法还包括:所述联合模型损失函数的设定,迭代更新所述联合模型参数的方法的设定,对所述联合模型中各层参数的初始化,各个网络层之间的连接以及对齐,对所述联合模型进行训练等。
采用最大间隔损失函数对联合模型参数进行优化,并加入正则化公式来提高模型的泛化能力;训练过程中,当损失值不在合理范围内时,调整联合模型参数并继续训练,直到损失值下降到合理范围内时,将该模型作为问句生成联合模型。
通过本发明实施例一提供的一种基于图表征的问句生成方法,不需人工制定规则,只要有足够的训练数据就可以训练问句生成模型,为传统的seq2seq神经网络引入了文本的依存句法等信息,以此来优化生成的问句。
实施例二:
图4示出了本发明中的基于图表征的问句生成装置结构框图,包括:
语义编码初始化模块,用于对输入的文本和答案进行分词,然后将单词转化为对应的词向量;
句法分析模块,用于对文本进行依存句法分析,生成对应的依存句法图;
文本与答案交互模块,用于将答案信息与文本信息进行交互,得到包含答案信息的文本向量;
基于依存句法的图表征构建模块,用于构建基于依存句法关系的文本图表征;
图表征信息融合模块,用于对整个文本在两个方向的图表征进行融合,同时对文本所有单词的图表征进行融合;
问句生成模块,用于在得到文本的图表征之后对其进行解码并生成质量最优的问句。
需要说明的是,本实施例中的各模块(或单元)是逻辑意义上的,具体实现时,多个模块(或单元)可以合并成一个模块(或单元),一个模块(或单元)也可以拆分成多个模块(或单元)。
通过本发明实施例二提供的一种基于图表征的问句生成装置,给定一段文本和答案,在不依赖人工制定规则模板的条件下,能够端到端生成问句,并且能考虑文本的依存句法等信息,使得生成的问句接近人工提问的质量。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。此外,本发明的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明的思想,其同样应当视为本发明所公开的内容。
Claims (10)
1.一种基于图表征融合的问句生成方法,其特征在于,包括以下步骤:
A、初始化文本、答案的语义编码序列;
B、通过对文本的句法分析,获取文本每个句子的依存句法树,构建整个文本的依存句法图;
C、将文本信息和答案信息进行交互,为文本编码引入答案信息,得到文本的交互编码;
D、基于文本的依存句法图,结合文本的交互编码,构建文本的依存句法图在两个方向的图表征;
E、将文本在依存句法图两个方向的图表征进行融合,得到最终的图表征;
F、根据文本的依存句法图表征,利用问句生成模块生成问句序列。
2.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤A中初始化语义编码序列的方法包括:采用词向量随机初始化的表示方法,或基于深度学习的语言模型训练得到的向量表示方法。
3.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤B中获取文本每个句子的依存句法树的方法包括:对句子进行依存句法分析。
4.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤B中构建整个文本的依存句法图的方法包括:多棵依存句法树合并为依存句法图。
5.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤C中将文本信息和答案信息进行交互的方法包括:对步骤A中得到的文本词向量和答案词向量进行深度对齐。
6.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤D中构建文本基于依存句法图的两个方向图表征的方法包括:利用自回归模型迭代计算图表征。
7.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤E中将文本在依存句法图两个方向的图表征进行融合的方法包括:多个单词的图表征融合为一个句子图表征、两个方向的图表征融合。
8.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,所述步骤F中所述问句生成模块的方法包括:基于循环神经网络的解码模块,文本表征和解码模块输出之间的注意力交互。
9.如权利要求1所述的一种基于图表征融合的问句生成方法,其特征在于,还包括将词向量输入所述问句生成模块进行训练的方法,包括:所述问句生成模块损失函数的设定、迭代更新,所述问句生成模块参数的方法的设定,对所述问句生成模块中各层参数的初始化,各个网络层之间的连接以及对齐。
10.一种基于图表征的问句生成装置,其特征在于,包括:
语义编码初始化模块,用于对输入的文本和答案进行分词,然后将单词转化为对应的词向量;
句法分析模块,用于对文本进行依存句法分析,生成对应的依存句法图;
文本与答案交互模块,用于将答案信息与文本信息进行交互,得到包含答案信息的文本向量;
基于依存句法的图表征构建模块,用于构建文本的基于依存句法关系的图表征;
图表征信息融合模块,用于对整个文本在两个方向的图表征进行融合,同时对文本所有单词的图表征进行融合;
问句生成模块,用于在得到文本的图表征之后对其进行解码并生成质量最优的问句。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351764.7A CN112487761A (zh) | 2020-11-26 | 2020-11-26 | 一种基于图表征融合的问句生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351764.7A CN112487761A (zh) | 2020-11-26 | 2020-11-26 | 一种基于图表征融合的问句生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112487761A true CN112487761A (zh) | 2021-03-12 |
Family
ID=74935388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011351764.7A Pending CN112487761A (zh) | 2020-11-26 | 2020-11-26 | 一种基于图表征融合的问句生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112487761A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326692A (zh) * | 2021-06-24 | 2021-08-31 | 四川启睿克科技有限公司 | 一种考虑句法结构的机器阅读理解方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
CN110321420A (zh) * | 2019-07-04 | 2019-10-11 | 河海大学常州校区 | 基于问句生成的智能问答系统 |
CN111078875A (zh) * | 2019-12-03 | 2020-04-28 | 哈尔滨工程大学 | 一种基于机器学习的从半结构化文档中提取问答对的方法 |
-
2020
- 2020-11-26 CN CN202011351764.7A patent/CN112487761A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
CN110321420A (zh) * | 2019-07-04 | 2019-10-11 | 河海大学常州校区 | 基于问句生成的智能问答系统 |
CN111078875A (zh) * | 2019-12-03 | 2020-04-28 | 哈尔滨工程大学 | 一种基于机器学习的从半结构化文档中提取问答对的方法 |
Non-Patent Citations (1)
Title |
---|
YU CHEN 等: "REINFORCEMENT LEARNING BASED GRAPH-TO-SEQUENCE MODEL FOR NATURAL QUESTION GENERATION", 《HTTPS://ARXIV.ORG/ABS/1908.04942》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326692A (zh) * | 2021-06-24 | 2021-08-31 | 四川启睿克科技有限公司 | 一种考虑句法结构的机器阅读理解方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109711465B (zh) | 基于mll和asca-fr的图像字幕生成方法 | |
CN106777125A (zh) | 一种基于神经网络及图像关注点的图像描述生成方法 | |
CN112214608B (zh) | 基于知识推理的文本生成方法、介质、装置和计算设备 | |
CN111563146B (zh) | 一种基于推理的难度可控问题生成方法 | |
CN109783666A (zh) | 一种基于迭代精细化的图像场景图谱生成方法 | |
CN109284361A (zh) | 一种基于深度学习的实体抽取方法及系统 | |
CN110399518A (zh) | 一种基于图卷积的视觉问答增强方法 | |
CN110851575B (zh) | 一种对话生成系统及对话实现方法 | |
CN111444298A (zh) | 一种基于兴趣点知识图谱预训练的地址匹配算法 | |
CN111339765A (zh) | 文本质量评估方法、文本推荐方法及装置、介质及设备 | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
CN111914555A (zh) | 基于Transformer结构的自动化关系抽取系统 | |
CN115759042A (zh) | 一种基于句法感知提示学习的句子级问题生成方法 | |
CN108363685B (zh) | 基于递归变分自编码模型的自媒体数据文本表示方法 | |
CN106294323B (zh) | 对短文本进行常识性因果推理的方法 | |
CN114048301B (zh) | 一种基于满意度的用户模拟方法及系统 | |
CN110334340B (zh) | 基于规则融合的语义分析方法、装置以及可读存储介质 | |
CN112487761A (zh) | 一种基于图表征融合的问句生成方法及装置 | |
CN110909174B (zh) | 一种基于知识图谱的简单问答中实体链接的改进方法 | |
CN113807519A (zh) | 一种融入教学反馈与习得理解的知识图谱构建方法 | |
CN117009547A (zh) | 基于图神经网络与对抗学习的多模态知识图谱补全方法和装置 | |
CN116304064A (zh) | 一种基于抽取式的文本分类方法 | |
CN114519353B (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 | |
CN116028888A (zh) | 一种平面几何数学题目的自动解题方法 | |
CN112580370B (zh) | 一种融合语义知识的蒙汉神经机器翻译方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210312 |
|
RJ01 | Rejection of invention patent application after publication |