CN115238053A - 基于bert模型的新冠知识智能问答系统及方法 - Google Patents
基于bert模型的新冠知识智能问答系统及方法 Download PDFInfo
- Publication number
- CN115238053A CN115238053A CN202210847126.7A CN202210847126A CN115238053A CN 115238053 A CN115238053 A CN 115238053A CN 202210847126 A CN202210847126 A CN 202210847126A CN 115238053 A CN115238053 A CN 115238053A
- Authority
- CN
- China
- Prior art keywords
- vector
- question
- data
- module
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 239000013598 vector Substances 0.000 claims abstract description 197
- 241000157593 Milvus Species 0.000 claims abstract description 44
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 238000003058 natural language processing Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 238000013500 data storage Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 14
- 229960005486 vaccine Drugs 0.000 claims description 11
- 230000001575 pathological effect Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 7
- 206010035664 Pneumonia Diseases 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 4
- 238000012966 insertion method Methods 0.000 claims description 3
- 238000007639 printing Methods 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 15
- 238000004364 calculation method Methods 0.000 abstract description 11
- 238000013139 quantization Methods 0.000 abstract description 11
- 238000006243 chemical reaction Methods 0.000 abstract description 8
- 230000000694 effects Effects 0.000 abstract description 8
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010845 search algorithm Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 102100033464 DNA-directed RNA polymerase II subunit GRINL1A Human genes 0.000 description 2
- 101000870895 Homo sapiens DNA-directed RNA polymerase II subunit GRINL1A Proteins 0.000 description 2
- 101001037037 Homo sapiens DNA-directed RNA polymerase II subunit GRINL1A, isoforms 4/5 Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000028257 Joubert syndrome with oculorenal defect Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000009728 shiwei Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/25—Integrating or interfacing systems involving database management systems
- G06F16/252—Integrating or interfacing systems involving database management systems between a Database Management System and a front-end application
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于BERT模型的新冠知识智能问答系统及方法,所述系统包括数据采集模块、数据存储模块、自然语言处理模块、服务器模块、网页前端模块;通过BERT模型将非结构化数据提取为特征向量,然后通过Milvus对这些特征向量进行计算并建立向量索引,最后利用IVF_SQ8算法实现对非结构化数据的检索。本发明一方面用BERT模型提高了特征词向量转化的准确度,去除了繁杂的预处理工作,解决了传统NLP模型训练速度较慢、计算量大、人工操作复杂、词向量转换效果较差的问题,另一方面用高性能Milvus向量搜索引擎实现了高维向量的存储与检索工作,应用IVF_SQ8基于量化的索引算法提升了匹配精准度,并减小了内存,降低了人力、时间、资金等成本。
Description
技术领域
本发明属于智能问答技术领域,具体涉及一种基于BERT模型的新冠知识智能问答系统及方法。
背景技术
智能问答技术领域的主要技术是自然语言处理技术(NLP)。问答系统可以分为基于知识图谱的问答系统、检索式问答系统、抽取式问答系统、生成式问答系统等。其运用的传统自然语言处理模型主要为Word2Vec、ELMO、CNN、RNN、(Bi)LSTM、Transformer、BERT 等。其运用的传统向量检索算法主要包括暴力搜索算法、近似最近邻搜索方法等。
基于知识图谱的问答系统其在现实生活中的应用非常广泛。目前已经有很多典型的商业产品,各个领域都出现了对其技术的应用。例如在医疗领域应用的问答系统,极大方便购买者询问产品详细情况,同时节省了客服的人力,提升了服务质量与速度。
因为互联网络的发展及数据量的爆炸式增长,出现了基于检索匹配的问答系统。检索式问答系统是信息检索系统的一种高级形式。用户能够以自然语言的形式提出查询请求,系统则直接返回给用户准确、简洁的答案而非一组可能包含答案的相关文档,是一种事实检索系统。其思路是从用户的自然语言问句中提取关键字,并在文本库或网页中搜索相关的文档。
抽取式问答系统是给定问句语义分析结果,自动问答系统需要在已有语料库、知识库或问答库中匹配相关的信息,并抽取出相应的答案。传统答案抽取构建在浅层语义分析基础之上,采用关键词匹配策略。
生成式对话无需数据库,可以通过问题直接生成回复。在生成式对话系统中,用到的主要是编码-解码模型,其中最常见的有卷积神经网络(CNN)和循环神经网络(RNN)等。
传统的问答系统大都是基于规则的知识图谱方式实现,这种方式需要对大量的语料进行分类整理,前期工作很耗时,需要花费大量的人力和时间,难以实现问答库的快速更新。检索式问答系统在一段时间内取得了很好的效果,但仍未解决用户问题多样性以及自然语言复杂性的问题,在数据的质量方面,采用的都是从网页或文档中抽取的非结构化数据,质量参差不齐,导致数据处理效果不尽人意。抽取式问答系统能通过词汇与语句间的相似度计算进行简单的推理工作;使用模式匹配方法的问答系统能够根据推理模式来进行简单与复杂推理,然而推理模式的编写需要大量的人工工作。生成式问答对系统要求更高。“抽取+合成”的生成式问答系统模块之间独立性强,信息共享性差,产生错误难以解决。基于Seq2Seq模型的问答系统无法准确生成命名实体,容易出现答非所问的情况。
Word2Vec是一种编码模型,将一个个的词给编码成向量,但是被编码而成的向量并能够体现这些单词之间的关系。采用的简单查表获取唯一表示的词向量这种静态的方式虽然通用性强,但是无法针对特定任务做动态优化。
ELMO是基于特征的语言模型,可以结合上下文语境对词进行建模,与Word2Vec不同, ELMO中词向量表示的是内部网络状态函数,对于相同的词它所展现出来的词向量是动态变化的。但ELMO模型的训练速度较慢,对每个token编码都要通过language model计算得出。
卷积神经网络CNN可以对数据进行基于区域的小规模运算。卷积层可以自动提取特征向量,通过共享卷积层处理高维数据较容易,但采用梯度下降算法很容易使训练结果收敛于局部最小值而非全局最小值。
循环神经网络RNN以序列数据为输入,通过网络内部结构设计有效捕捉序列之间的关系特征,也以序列形式进行输出,应用于输入数据具有依赖性且是序列模式时的场景。与CNN 结构不同的是,RNN的隐藏层是循环的。这表明隐藏层的值不仅取决于当前的输入值,还取决于前一时刻隐藏层的值。具体的表现形式是,RNN“记住”前面的信息并将其应用于计算当前输出,这使得隐藏层之间的节点是有连接的。由于内部结构简单,对计算资源要求低,在短序列任务上性能、效果都表现优异。但传统RNN模型在解决长序列之间的关联时,表现很差,原因是在进行反向传播的时候,过长的序列导致梯度的计算异常,发生梯度消失或爆炸。
长短时记忆网络LSTM是由当前时刻的输入、上一时刻的输出、上一时刻的记忆共同决策的,并且产生一个新的输出,同时又更新了内部的记忆。不同于RNN,它通过输入门来决定何时让输入进入细胞单元、通过遗忘门来决定何时应该记住前一时刻的记忆、通过输出门来决定何时让记忆流入到下一时刻;双向长短时记忆网络BiLSTM是由前向LSTM与后向LSTM组合而成。BiLSTM的基本思想是提出的每一个训练序列向前和向后都是两个长短时记忆(LSTM)网络,而且这两个都连接着一个输出层。这个结构能够提供给输出层输入序列中每一个点以完整的过去和未来的上下文信息。RNN的梯度问题在LSTM及其变种里面得到了一定程度的解决,但还是不够。它可以处理100个量级的序列,而对于1000个量级,或者更长的序列则依然很麻烦;LSTM计算费时。每一个LSTM的细胞单元里面都意味着有4 个全连接层,如果LSTM的时间跨度很大,并且网络又很深,这个计算量会很大,很耗时。此外,BiLSTM在并行处理上也存在缺陷。
Transformer采用自注意力机制,注意层可以访问所有先前的状态并根据学习的相关性度量对其进行差分加权,从而提供有关遥远标记的相关信息。与RNN不同的是,Transformer一次处理整个输入,这允许比RNN实现更多的并行化,因此减少了训练时间。相较于LSTM, Transformer不存在长距离带来的信息损失。但因其未结合RNN和CNN,Transformer丧失了捕捉局部特征的能力,也并不具备CNN那样的平移不变性,因此在数据不足时泛化能力较差。
BERT模型(Bidirectional Encoder Representations from Transformers)为当今NLP领域最先进的预训练的语言表征模型,它通过引入下一句子预测和预测屏蔽子词(先将句子中的部分子词屏蔽,再令模型去预测被屏蔽的子词)组合训练,获得了比词语更高级别的语句级别特征;通过多层自注意力机制使用,使其能进行token级预训练;使用先预训练,再微调的训练方式,使其适用于多个应用场景。以上突破性工作使得BERT模型刷新了11项NLP任务处理的纪录。
暴力搜索算法指遍历一遍数据候选集里面的所有元素;近似最近邻搜索方法(ANN)加快了搜索速度,在精确率和召回率上面就会做出一定的牺牲,但是其搜索速度相对暴力搜索有很大地提高,近似最近邻搜索方法一类是基于提升检索结构性能的方法,主要方法大多是树形方法,另一类主要基于对数据本身的处理,包括哈希算法、量化方法等。暴力搜索算法当数据候选集特别大的时候就会耗费过多的时间。树形方法针对海量向量的计算成指数倍,计算复杂程度高,哈希方法基于二进制编码的近似最近邻查找虽然大大提高了检索效率,但其检索的准确度始终不高,但量化方法被认为可以解决上述问题。IVF是一种基于量化的向量索引类型,它通过聚类方法把空间里的点划分成多个单元,查询时先把目标向量与所有单元的中心做距离比较,选出几个最近单元。然后比较这些被选中单元里的所有向量,得到最终的结果。IVF_SQ8是基于IVF的一种标量量化压缩算法,解决了全局暴力搜索中计算量大、耗时长的问题,减小了向量索引文件存储空间,在仅含CPU环境中也可运行。
发明内容
基于上述问题,本发明提供一种基于BERT模型的新冠知识智能问答系统及方法,通过 BERT的SentenceTransformer模型与Milvus向量搜向量索引擎的结合提高训练速度和匹配度,运用基于IVF_SQ8量化的向量索引算法提升了搜索速度和准确度。本发明提供问题和答案的对应关系,通过对问题库提取语义特征向量存入Milvus中,然后对用户的问题也进行语义特征向量提取,通过对向量特征的匹配实现自动回复,在问答语言处理方面简化了对语料的预处理,解决传统问答系统耗费人力、时间成本高、问答匹配度差的难题。
一种基于BERT模型的新冠知识智能问答系统,包括:数据采集模块、数据存储模块、自然语言处理模块、服务器模块、网页前端模块;
所述数据采集模块用于采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;
所述数据存储模块用于将采集到的问题和答案一一对应存储在数据库中;
所述自然语言处理模块用于将非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;
所述服务器模块用于前后端交互,根据用户输入的问题返回数据库数据给前端;
所述网页前端模块用于生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
所述自然语言处理模块包括:特征向量生成模块、向量索引建立模块、相似度匹配模块;
所述特征向量生成模块用于通过BERT模型将非结构化数据提取为特征向量;
所述向量索引建立模块用于通过向量搜索引擎Milvus对特征向量进行计算并建立向量索引;
所述相似度匹配模块用于实现特征向量的分析与检索。
一种基于BERT模型的新冠知识智能问答方法,包括:
步骤1:采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;具体表述为:
步骤1.1:针对全球新冠肺炎共享实战平台,用urllib模拟浏览器向服务器发送请求,从而获取相应网页源码;
步骤1.2:在Pycharm中输入xpath语句解析网页源码,解析服务器响应的文本,从而获取有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案数据;
步骤2:将采集到的问题和答案一一对应存储在数据库中;具体表述为:
步骤2.1:首先初始化属性,指定本地IP、MySQL启动端口、用户名、密码、数据库名称;
步骤2.2:链接相应的数据库对应的表格,输入本地IP、MySQL启动端口、用户名、密码、数据库名称,规定编码格式;
步骤2.3:连接数据库,在数据库中生成问题和答案后,调用数据插入方法,创建实例化对象,最后设定循环次数,在MySQL数据库的表格中插入一定数量的数据;
步骤3:将非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;具体表述为:
步骤3.1:调用BERT模型将非结构化数据转换为特征向量;具体表述为:
步骤3.1.1:调用包模型SentenceTransformer,并用数据预处理工具metricsklearn.preprocessing调用包normalize进行规范化处理,调用模型路径MODEL_PATH,工具包gdown在网址上下载压缩的SentenceTransformer的BERT模型;
步骤3.1.2:提取数据库中问题列的已有数据;
步骤3.1.3:对从爬虫到数据库中得到的问题列的语句进行编码操作;具体表述为:
A1)如果MODEL_PATH路径不存在,则用os.makedirs方法创建MODEL_PATH目录,如果压缩文件SentenceTransformer不存在,则在开源网站下载该文件,然后解压全部的压缩文件;
A2)对问句增加分词并增加特殊标记,在分词器tokenizer中添加特殊占位符;
A3)将标记列表传入网络层BERT,BERT为每一个token输出一个embedding,将输出进入一个池化层pooling,然后采用均值池化,将所有token embedding的均值作为输出,得到跟输入句子长度无关的一个定长的句子嵌入sentence embedding,得到被标记的问句特征向量;
步骤3.2:通过Milvus对获取的特征向量进行计算并建立向量索引;具体表述为:
步骤3.2.1:将特征向量和问题数据合并到一个列表中,分别将特征向量导入数据预处理函数,问题数据导入MySQL;
步骤3.2.2:将特征向量转为二维向量;
步骤3.2.3:对特征向量存储并建立向量索引;具体表述为:
B1)导入相应的包connections(连接)、FieldSchema(字段模式)、CollectionSchema(集合模式)、DataType(数据类型)、Collection(集合)、utility(实用程序)、Milvus主机、端口、VECTOR_DIMENSION(向量维度)、METRIC_TYPE(度量标准类型)、LOGGER(记录器);
B2)初始化一个Milvus类,创建集合,设置相关参数,设定如果Milvus表包含该集合则返回,如果不包含则创建集合,然后批量导入特征向量到集合,导入向量的维度与建表时的维度一致;
B3)在集合上创建IVF_SQ8向量索引,将二维向量进行标量量化并设置其参数,包括设置16384个聚类,规定使用内积作为度量值,同时设置删除Milvus表的函数,方便对不需要的数据进行删除;
步骤3.3:利用IVF_SQ8算法对特征向量进行分析与检索;具体表述为:
步骤3.3.1:针对用户输入的问句,经过BERT和池化层将其转成定长特征向量,将特征向量转换为二维向量;
步骤3.3.2:在Milvus的集合中搜索相似向量索引;具体表述为:
C1)将二维向量进行标量量化;
C2)用k-means算法将n个y向量分为16384个聚类,分别获得聚类中心c1,c2,……,c16384, 将输入特征向量x与n个y向量的距离记为x与y向量所在的聚类中心的距离;
C3)比对输入特征向量x与16384个聚类中心的距离,找到和输入特征向量距离最小的 16个聚类,然后对这16个聚类中全部的向量通过内积执行距离比对;
C4)在Milvus中检索查询记录得到与该向量组相似度最高的top_k个向量并打印其在集合中对应的序号,返回序号数值;
C5)连接MySQL数据库,建游标,若表格不存在则创建MySQL表,将Milvus序号和镜像文件路径批量插入MySQL,根据Milvus序号获取镜像文件路径,用SQL语句在对应的表格中选择问句文本内容;
C6)将对应的一系列问题返回前端,点击相似问题会返回对应答案;
步骤4:前后端交互,根据用户输入的问题返回数据库数据给前端;具体表述为:通过服务器主函数,调用编码函数通过SentenceTransformer模型将用户问题编码为特征向量,然后调用Milvus函数和MySQL函数将特征向量与数据库中问题进行相似度检索形成向量索引返回前端;
步骤5:生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
本发明的有益效果是:
本发明提出了一种基于BERT模型的新冠知识智能问答系统及方法,通过BERT模型将非结构化数据提取为特征向量,然后通过Milvus对这些特征向量进行计算并建立向量索引,最后利用IVF_SQ8算法实现对非结构化数据的检索。与现有技术相比,在这种架构下,一方面用BERT模型提高了特征词向量转化的准确度,去除了繁杂的预处理工作,解决了传统NLP 模型训练速度较慢、计算量大、人工操作复杂、词向量转换效果较差的问题,另一方面用高性能Milvus向量搜向量索引擎实现了高维向量的存储与检索工作,应用IVF_SQ8基于量化的向量索引算法提升了匹配精准度,并减小了内存,降低了人力、时间、资金等成本。
附图说明
图1为本发明中基于BERT模型的新冠知识智能问答系统框图;
图2为本发明中问答聊天界面展示图。
图3为本发明中问句与特征向量的转换关系原理图。
具体实施方式
下面结合附图和具体实施实例对发明做进一步说明。全球新冠肺炎疫情已肆虐三年,有关新冠疫情防护、治疗和新冠疫苗、奥密克戎变异毒株等问题仍旧不断涌现。本发明结合BERT模型与Milvus的诸多优点提出一种基于BERT模型的新冠知识智能问答系统及方法,该发明具有即时、权威、便利、强针对性的特点,以便给医护工作者提供及时的防护救助指导、给病患提供及时的疑难解答、给用户提供全面的防疫知识科普。
系统配置:
操作系统:Windows 10
处理器:AMD Ryzen 7 5800H with Radeon Graphics,3201Mhz,8个内核,16个逻辑处理器
版本:Python3.8以上,MySQL5.7以上,nodejs16以上,Pytorch1.6以上
框架:Fastapi
服务器:uvicorn
Milvus主机:3.238.5.225
Milvus端口:19530
VECTOR_DIMENSION(向量维度):768
INDEX_FILE_SIZE(指定数据存储时单个文件的大小):1024
METRIC_TYPE(度量标准类型):IP(内积)
TOP_K(选出概率最大的10个向量):10
MySQL主机:127.0.0.1
MySQL端口:3306
MySQL用户名:root
如图1所示,本发明所提出的一种基于BERT模型的新冠知识智能问答系统,包括:数据采集模块、数据存储模块、自然语言处理模块、服务器模块、网页前端模块;
所述数据采集模块用于采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;
所述数据存储模块用于将采集到的问题和答案一一对应存储在数据库中;
所述自然语言处理模块用于将这些非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;
所述服务器模块用于前后端交互,根据用户输入的问题返回数据库数据给前端;
所述网页前端模块用于生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
所述自然语言处理模块包括:特征向量生成模块、向量索引建立模块、相似度匹配模块;
所述特征向量生成模块用于通过BERT模型将非结构化数据提取为特征向量;
所述向量索引建立模块用于通过向量搜索引擎Milvus对特征向量进行计算并建立向量索引;
所述相似度匹配模块用于实现特征向量的分析与检索。
一种基于BERT模型的新冠知识智能问答方法,包括:
步骤1:采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;
本实施例采用Python网络爬虫技术搜集国家卫健委、中国疾控中心、世卫组织、GMCC 全球新冠肺炎共享实战平台等网站获取有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征问题和答案。
get请求。对请求对象的定制,url为国家卫健委、中国疾控中心、世卫组织、GMCC全球新冠肺炎共享实战平台等网址,输入HTTP headers,用urllib模拟浏览器向服务器发送请求,从而获取相应网页源码;
xpath解析。首先需要安装lxml库并导入lxml.etree,chrome浏览器中下载xpath插件并找出网页问答语句对应xpath的语句,Pycharm中输入xpath语句用于解析网页源码,解析服务器响应的文本,从而获取数据。
步骤2:将采集到的问题和答案一一对应存储在数据库中;具体应用从爬虫到MySQL数据库的方法,在数据库中将问题和答案一一对应,并能呈现出来。
步骤2.1:首先初始化属性,指定本地ip、MySQL启动端口port:3306、用户名、密码、数据库名称;
步骤2.2:链接相应的数据库对应的表格,输入本地ip、MySQL启动端口port:3306、用户名、密码、数据库名称、规定编码格式为utf8;
步骤2.3:插入数据。连接数据库,创建游标,用SQL命令以字符串格式嵌入表格,执行 SQL命令,然后关闭游标并提交,并关闭数据库连接,在数据库中生成问题和答案后,调用数据插入方法,创建实例化对象,最后设定循环次数,在MySQL数据库的表格中插入对应数量的数据。
步骤3:将非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;包括:
步骤3.1:调用BERT模型将非结构化数据转换为特征向量;
步骤3.1.1:调用模型。调用包SentenceTransformer(模型),并用数据预处理工具metricsklearn.preprocessing调用包normalize(规范化),调用MODEL_PATH(模型路径),gdown (一种工具包)在网址上下载压缩的SentenceTransformer的BERT模型;
步骤3.1.2:提取数据库中问题列的已有数据;
步骤3.1.3:对从爬虫到数据库中得到的问题列的语句进行编码操作;具体表述为:
A1)如果模型文件路径不存在,则用os.makedirs方法创建MODEL_PATH目录,如果压缩文件SentenceTransformer不存在,则在开源网站下载该文件,然后解压全部的压缩文件。
A2)对问句增加分词并增加特殊标记,在分词器tokenizer中添加特殊占位符,效果如下所示:
Sentence 1:新冠疫苗有效吗?
Tokens 1:[‘[CLS]','新','冠','疫','苗’,'有','效','吗','?','[SEP]’]
A3)接着把标记列表传入网络层BERT,BERT为每一个token输出一个embedding,接着将输出进入一个池化层(pooling),然后采用均值池化,将所有token embedding的均值作为输出,所以得到跟输入句子长度无关的一个定长的句子嵌入sentence embedding(768维),用R[CLS]表示该被标记的问句特征向量,得到sentence representation:如图3所示;
sentence representation=R[CLS]
步骤3.2:通过Milvus对获取的特征向量进行计算并建立向量索引;具体表述为:
步骤3.2.1:将特征向量和问题数据合并到一个列表中,分别将特征向量导入数据预处理函数,问题数据导入数据库;
步骤3.2.2:数据预处理。由于Milvus支持的向量数据为浮点型(小数)的二维向量,故而用Python代码将特征向量转为二维向量;
步骤3.2.3:对特征向量存储并建立向量索引;具体表述为:
B1)导入相应的包connections(连接),FieldSchema(字段模式),CollectionSchema(集合模式),DataType(数据类型),Collection(集合),utility(实用程序),Milvus主机、端口,VECTOR_DIMENSION(向量维度),METRIC_TYPE(度量标准类型),LOGGER(记录器);
B2)初始化一个Milvus类,创建集合,设置相关参数,设定如果Milvus表包含该集合则返回,如果不包含则创建集合,然后批量导入特征向量到集合,导入向量的维度与建表时的维度一致;
B3)在集合上创建IVF_SQ8向量索引,将二维向量进行标量量化并设置其参数,包括设置16384个聚类,规定使用内积作为度量值,同时设置删除Milvus表的函数,方便对不需要的数据进行删除;
步骤3.3:利用IVF_SQ8算法对特征向量进行分析与检索;具体表述为:
步骤3.3.1:当用户输入一个问句时,经过BERT和池化层将其转成定长特征向量并通过数据预处理将其转为二维向量;
步骤3.3.2:搜索相似的向量索引。在Milvus的collection(集合)中进行搜索,打开collection,设置度量标准为内积,设置IVF-SQ8参数,指定query_ranges(检索范围),设置参数 query_records(查询记录)和top_k(相似度最高的k个向量),对特征向量的检索过程如下:
向量处理后均为二维向量,然后进行标量量化,把向量的两个维度从4个字节的浮点数转为1个字节的无符号整数向量,将整数二维向量看成2D平面上的点,用k-means算法将n 个y向量分为16384个聚类(nlist),分别获得聚类中心c1,c2,……,c16384,将x与n个y向量的距离记为x与y向量所在的聚类中心的距离,所以首先执行16384次检索,比对输入特征向量x与16384个聚类中心的距离,找到和输入特征向量距离最小的16个聚类(nprobe),然后对这16个聚类中全部的向量通过内积执行距离比对。即
x·y=x1·y1+x2·y2
在Milvus中检索query_records(查询记录)得到与该向量组相似度最高的top_k个向量并打印其在collection中对应的序号,返回序号数值。
数据库匹配。首先导入相应的包MYSQL_DB(用于建立、删除、导入和导出数据库的模块)、LOGGER(记录器),连接已经搭建完成的MySQL数据库,创建游标,若表格不存在则创建MySQL表,将Milvus序号和img路径批量插入MySQL,根据Milvus序号获取img 路径,用SQL语句在对应的表格中选择问句文本内容;
问题返回前端。将对应的一系列问题返回前端,点击相似问题会返回对应答案;
步骤4:前后端交互,根据用户输入的问题返回数据库数据给前端;
服务器可完整实现前后端交互,包含了将用户输入的问题传递给特征向量生成模块并计算相似度、返回数据库数据给前端。前端输入问题后可通过服务器主函数,调用encoder函数用SentenceTransformer模型将用户问题编码为特征向量,然后调用Milvus函数和MySQL函数两个函数将特征向量与数据库中问题进行相似度检索形成向量索引返回前端。
首先导入相应的包:os包(操作系统驱动)File(文件)、UploadFile(上传文件)、CORSMiddleware(CORS中间件)、do_load(上传)、do_search(搜索)、do_get_answer(获取答案)、do_count(计数)、do_drop(删除)、LOGGER(记录器)、SentenceModel(句子模型)。
调用不同的包实现不同功能,包括用http请求post方法/qa/load_data用于将问答数据集导入系统;http请求get方法/qa/search用于获取系统中的类似问题;http请求get方法/qa/answer 用于获取系统中给定问题的答案;http请求post方法/qa/count用于获取系统中的问题数量; http请求post方法/qa/drop用于删除指定的集合,最后对uvicorn设置端口运行服务器指令ip 地址为127.0.0.1,端口为8080。
设计一个函数测试Fastapi的接口,声明将实例化对象传入用于测试下载、搜索、回答、计数、删除功能。
步骤5:生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
通过对Milvus聊天界面进行微调创建新冠疫情防控的聊天界面,实现以对话形式的问答功能。此处采用人性化的对话设计,类似微信的问答界面,满足用户最好的问答体验,增加上传和删除功能,能上传和删除最新的问答数据集,经过BERT词向量形成及Milvus向量搜索匹配功能,可以在几秒内将数据库更新,并可在前端查询到更新后的问答,该模块适应疫情数据快速更新形势,方便用户为数据库新增最近的疫情信息。
本发明采用BERT提高特征向量转化的准确度。通过引入下一句子预测和预测屏蔽子词(先将句子中的部分子词屏蔽,再令模型去预测被屏蔽的子词)组合训练,获得了比词语更高级别的语句级别特征;通过多层自注意力机制使用,使其能进行token级预训练;使用先预训练,再微调的训练方式,使其适用于多个应用场景。SentenceTransformers是一个可以用于句子、文本和图像嵌入的库,该框架基于PyTorch和Transformers,并提供了大量针对各种任务的预训练模型,可以很容易根据自己的模型进行微调。正因为这些优势的存在,所以此项目中词向量的转换使用的就是BERT SentenceTransformers模型。
再者,BERT减小繁杂的工作量。在BERT模型里充分的表现和描述了各种字符级、词语数量级、句子数量级乃至于句间之间相互关系的基本特征,因此在不同的NLP任务中,只需要给每个任务设置一个很轻量级的输入层即可,减小了工作量。
本发明使用Milvus向量存储引擎。该系统没有使用最常见的MySQL数据库存储特征向量,因为传统关系型数据库针对字母数字类数据而设计,把不同数据整理归纳为相互关联的集合,而Milvus基于FAISS、Annoy、HNSW,使该系统具有针对特征向量的管理和向量索引方式,可以支持处理海量的高维特征向量。
本发明使用IVF_SQ8基于量化的向量索引。IVF_SQ8是基于IVF_FLAT的一种向量数据压缩算法,结合了Inverted File System(倒排索引算法)和Scalar Quantizer(标量量化算法) 的优势。该发明通过使用IVF_SQ8,用IVF解决了全局暴力搜索中计算量大、耗时长的问题,在IVF的基础上对放入单元中的每一条向量把原来向量的由4个字节的浮点数改变为1个字节的无符号整数来进行标量的量化,磁盘和内存占用比原来降至1/4,减小了向量索引文件存储空间,在仅含CPU环境中也可运行。优势:高速查询,速度比IVF_FLAT快,磁盘、内存占用为原始数据30%。
本发明使用内积计算提高向量的相似匹配率。因为本发明需要大量数据的查询检索,经过理论分析和实际检验,使用内积(IP)作为项目的向量间距离计算方式,以提高向量相似匹配率。
本发明使用MySQL存储问答数据集。MySQL运行速度快并且功能体积小,也因此拥有更低的费用和成本,并且同时支持多种操作系统。
本发明提出的技术方案中通过BERT模型可以将这些非结构化数据提取为特征向量,然后通过Milvus对这些特征向量进行计算并建立向量索引,最后利用IVF_SQ8算法实现对非结构化数据的检索。与现有技术相比,在这种架构下,我们一方面用BERT模型提高了特征词向量转化的准确度,去除了繁杂的预处理工作,解决了传统NLP模型训练速度较慢、计算量大、人工操作复杂、词向量转换效果较差的问题,另一方面用高性能Milvus向量搜索引擎实现了高维向量的存储与检索工作,并基于IVF_SQ8基于量化的向量索引算法提升了匹配精准度,并减小了内存,降低了人力、时间、资金等成本。
如图2为问答聊天界面展示(具体操作:点击下方输入框输入您的问题,系统会返回您的问题并建立问句索引,点击索引可看到答案)。随着疫情形势的变化,我们后端数据库的问答内容也在不断更新推进。
Claims (10)
1.一种基于BERT模型的新冠知识智能问答系统,其特征在于,包括:数据采集模块、数据存储模块、自然语言处理模块、服务器模块、网页前端模块;
所述数据采集模块用于采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;
所述数据存储模块用于将采集到的问题和答案一一对应存储在数据库中;
所述自然语言处理模块用于将非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;
所述服务器模块用于前后端交互,根据用户输入的问题返回数据库数据给前端;
所述网页前端模块用于生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
2.根据权利要求1所述的一种基于BERT模型的新冠知识智能问答系统,其特征在于,所述自然语言处理模块包括:特征向量生成模块、向量索引建立模块、相似度匹配模块;
所述特征向量生成模块用于通过BERT模型将非结构化数据提取为特征向量;
所述向量索引建立模块用于通过向量搜索引擎Milvus对特征向量进行计算并建立向量索引;
所述相似度匹配模块用于实现特征向量的分析与检索。
3.一种基于BERT模型的新冠知识智能问答方法,其特征在于,包括:
步骤1:采集有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案;
步骤2:将采集到的问题和答案一一对应存储在数据库中;
步骤3:将非结构化数据转换为特征向量,并将特征向量与数据库中问题进行相似度检索处理;
步骤4:前后端交互,根据用户输入的问题返回数据库数据给前端;
步骤5:生成新冠疫情防控的聊天界面,实现以对话形式的问答功能。
4.根据权利要求3所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤1包括:
步骤1.1:针对全球新冠肺炎共享实战平台,用urllib模拟浏览器向服务器发送请求,从而获取相应网页源码;
步骤1.2:在Pycharm中输入xpath语句解析网页源码,解析服务器响应的文本,从而获取有关新冠疫情日常防护、治疗、新冠疫苗及新冠病理特征的问题和答案数据。
5.根据权利要求3所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤2包括:
步骤2.1:首先初始化属性,指定本地IP、MySQL启动端口、用户名、密码、数据库名称;
步骤2.2:链接相应的数据库对应的表格,输入本地IP、MySQL启动端口、用户名、密码、数据库名称,规定编码格式;
步骤2.3:连接数据库,在数据库中生成问题和答案后,调用数据插入方法,创建实例化对象,最后设定循环次数,在MySQL数据库的表格中插入一定数量的数据。
6.根据权利要求3所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤3包括:
步骤3.1:调用BERT模型将非结构化数据转换为特征向量;
步骤3.2:通过Milvus对获取的特征向量进行计算并建立向量索引;
步骤3.3:利用IVF_SQ8算法对特征向量进行分析与检索。
7.根据权利要求6所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤3.1包括:
步骤3.1.1:调用包模型SentenceTransformer,并用数据预处理工具metricsklearn.preprocessing调用包normalize进行规范化处理,调用模型路径MODEL_PATH,工具包gdown在网址上下载压缩的SentenceTransformer的BERT模型;
步骤3.1.2:提取数据库中问题列的已有数据;
步骤3.1.3:对从爬虫到数据库中得到的问题列的语句进行编码操作。
8.根据权利要求6所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤3.2包括:
步骤3.2.1:将特征向量和问题数据合并到一个列表中,分别将特征向量导入数据预处理函数,问题数据导入MySQL;
步骤3.2.2:将特征向量转为二维向量;
步骤3.2.3:对特征向量存储并建立向量索引。
9.根据权利要求6所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤3.3包括:
步骤3.3.1:针对用户输入的问句,经过BERT和池化层将其转成定长特征向量,将特征向量转换为二维向量;
步骤3.3.2:在Milvus的集合中搜索相似向量索引。
10.根据权利要求9所述的一种基于BERT模型的新冠知识智能问答方法,其特征在于,所述步骤3.3.2包括:
C1)将二维向量进行标量量化;
C2)用k-means算法将n个y向量分为16384个聚类,分别获得聚类中心c1,c2,……,c16384,将输入特征向量x与n个y向量的距离记为x与y向量所在的聚类中心的距离;
C3)比对输入特征向量x与16384个聚类中心的距离,找到和输入特征向量距离最小的16个聚类,然后对这16个聚类中全部的向量通过内积执行距离比对;
C4)在Milvus中检索查询记录得到与该向量组相似度最高的top_k个向量并打印其在集合中对应的序号,返回序号数值;
C5)连接MySQL数据库,建游标,若表格不存在则创建MySQL表,将Milvus序号和镜像文件路径批量插入MySQL,根据Milvus序号获取镜像文件路径,用SQL语句在对应的表格中选择问句文本内容;
C6)将对应的一系列问题返回前端,点击相似问题会返回对应答案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210847126.7A CN115238053A (zh) | 2022-07-19 | 2022-07-19 | 基于bert模型的新冠知识智能问答系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210847126.7A CN115238053A (zh) | 2022-07-19 | 2022-07-19 | 基于bert模型的新冠知识智能问答系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115238053A true CN115238053A (zh) | 2022-10-25 |
Family
ID=83673025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210847126.7A Pending CN115238053A (zh) | 2022-07-19 | 2022-07-19 | 基于bert模型的新冠知识智能问答系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115238053A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115495457A (zh) * | 2022-11-16 | 2022-12-20 | 青岛以萨数据技术有限公司 | 基于单机向量数据库的数据处理系统、设备及存储介质 |
CN115599791A (zh) * | 2022-11-15 | 2023-01-13 | 以萨技术股份有限公司(Cn) | 一种Milvus数据库参数确定方法、设备及存储介质 |
CN117272995A (zh) * | 2023-11-21 | 2023-12-22 | 长威信息科技发展股份有限公司 | 一种重复工单推荐方法及装置 |
CN117312500A (zh) * | 2023-11-30 | 2023-12-29 | 山东齐鲁壹点传媒有限公司 | 一种基于ann和bert的语义检索模型建立方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798991A (zh) * | 2020-07-09 | 2020-10-20 | 重庆邮电大学 | 基于lstm的新冠肺炎疫情群体态势预测方法 |
-
2022
- 2022-07-19 CN CN202210847126.7A patent/CN115238053A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798991A (zh) * | 2020-07-09 | 2020-10-20 | 重庆邮电大学 | 基于lstm的新冠肺炎疫情群体态势预测方法 |
Non-Patent Citations (1)
Title |
---|
王景宽: "智能对话系统的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 04, pages 138 - 278 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115599791A (zh) * | 2022-11-15 | 2023-01-13 | 以萨技术股份有限公司(Cn) | 一种Milvus数据库参数确定方法、设备及存储介质 |
CN115599791B (zh) * | 2022-11-15 | 2023-03-10 | 以萨技术股份有限公司 | 一种Milvus数据库参数确定方法、设备及存储介质 |
CN115495457A (zh) * | 2022-11-16 | 2022-12-20 | 青岛以萨数据技术有限公司 | 基于单机向量数据库的数据处理系统、设备及存储介质 |
CN117272995A (zh) * | 2023-11-21 | 2023-12-22 | 长威信息科技发展股份有限公司 | 一种重复工单推荐方法及装置 |
CN117272995B (zh) * | 2023-11-21 | 2024-01-30 | 长威信息科技发展股份有限公司 | 一种重复工单推荐方法及装置 |
CN117312500A (zh) * | 2023-11-30 | 2023-12-29 | 山东齐鲁壹点传媒有限公司 | 一种基于ann和bert的语义检索模型建立方法 |
CN117312500B (zh) * | 2023-11-30 | 2024-02-27 | 山东齐鲁壹点传媒有限公司 | 一种基于ann和bert的语义检索模型建立方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240012810A1 (en) | Clause-wise text-to-sql generation | |
WO2021164200A1 (zh) | 一种基于深度分层编码的智能语义匹配方法和装置 | |
CN115238053A (zh) | 基于bert模型的新冠知识智能问答系统及方法 | |
CN110765277B (zh) | 一种基于知识图谱的移动端的在线设备故障诊断方法 | |
US20210018332A1 (en) | Poi name matching method, apparatus, device and storage medium | |
US12007988B2 (en) | Interactive assistance for executing natural language queries to data sets | |
US11500865B1 (en) | Multiple stage filtering for natural language query processing pipelines | |
CN108419094A (zh) | 视频处理方法、视频检索方法、装置、介质及服务器 | |
WO2023272748A1 (zh) | 一种面向学术精准推荐的异质科研信息集成方法及系统 | |
CN116842126B (zh) | 一种利用llm实现知识库精准输出的方法、介质及系统 | |
WO2023045187A1 (zh) | 基于神经网络的语义搜索方法、装置、设备和存储介质 | |
CN115481220B (zh) | 基于岗位和简历内容的对比学习人岗智能匹配方法及系统 | |
CN114239730B (zh) | 一种基于近邻排序关系的跨模态检索方法 | |
CN111831624A (zh) | 数据表创建方法、装置、计算机设备及存储介质 | |
CN117312989A (zh) | 一种基于GCN和RoBERTa的上下文感知的列语义识别方法和系统 | |
CN117494815A (zh) | 面向档案的可信大语言模型训练、推理方法和装置 | |
CN118245564A (zh) | 一种支持语义查重查新的特征比对库构建方法及装置 | |
Hou et al. | Remote sensing image retrieval with deep features encoding of Inception V4 and largevis dimensionality reduction | |
CN113342950A (zh) | 基于语义联合的答案选取方法及系统 | |
CN110717014B (zh) | 一种本体知识库动态构建方法 | |
CN117056459A (zh) | 一种向量召回方法和装置 | |
CN116340545A (zh) | 基于图谱关联与融合的数字资源组件多维映射系统及方法 | |
CN114969279A (zh) | 一种基于层次图神经网络的表格文本问答方法 | |
CN117931858B (zh) | 数据查询方法、装置、计算机设备和存储介质 | |
CN118484516B (zh) | 面向行业大模型的多层次主题式检索增强生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221025 |
|
RJ01 | Rejection of invention patent application after publication |