CN114860913A - 智能问答系统构建方法、问答处理方法及装置 - Google Patents
智能问答系统构建方法、问答处理方法及装置 Download PDFInfo
- Publication number
- CN114860913A CN114860913A CN202210573216.1A CN202210573216A CN114860913A CN 114860913 A CN114860913 A CN 114860913A CN 202210573216 A CN202210573216 A CN 202210573216A CN 114860913 A CN114860913 A CN 114860913A
- Authority
- CN
- China
- Prior art keywords
- question
- faq
- answer
- model
- knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 35
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 111
- 238000005065 mining Methods 0.000 claims abstract description 51
- 238000012216 screening Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 64
- 238000005516 engineering process Methods 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 19
- 238000013140 knowledge distillation Methods 0.000 claims description 16
- 238000013441 quality evaluation Methods 0.000 claims description 16
- 239000003795 chemical substances by application Substances 0.000 claims description 13
- 238000004821 distillation Methods 0.000 claims description 10
- 239000012634 fragment Substances 0.000 claims description 9
- 238000012916 structural analysis Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 37
- 238000004891 communication Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000009411 base construction Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 208000016261 weight loss Diseases 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开一种智能问答系统构建方法、问答处理方法及装置,涉及数据处理技术领域,尤其涉及自然语言处理和深度学习技术领域。具体实现方案为:获取不同来源的常用问答对FAQ资源数据;根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据用户点击日志构建第一类训练数据,并基于FAQ知识库构建第二类训练数据;基于知识增强模型,采用第一类训练数据和第二类训练数据构建问题轻量化匹配模型;基于语义索引、倒排索引和问题轻量化匹配模型,构建FAQ智能问答系统。本申请技术方案能够提升问答系统在专业领域对话式场景下的智能化水平。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及自然语言处理NLP和深度学习技术等人工智能领域,特别涉及一种智能问答系统构建方法、问答处理方法及装置。
背景技术
相关技术中,对于业务范围广、用户基数大、对话方式复杂的金融、通讯等行业而言,传统FAQ(Frequently Asked Questions,常用问答对)系统的FAQ知识库构建过程效率较低,且FAQ系统使用的传统倒排索引只考虑了输入问题和索引问题间的字面重合度,而忽略了获取的用户问题与FAQ集合中问题的表述形式差异,并且传统深度学习框架在语言理解、训练效率等方面存在一定瓶颈。
发明内容
本申请提供了一种智能问答系统构建方法、问答处理方法及装置。
根据本申请的第一方面,提供了一种智能问答系统构建方法,包括:获取不同来源的常用问答对FAQ资源数据;根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据所述用户点击日志构建第一类训练数据,并基于所述FAQ知识库构建第二类训练数据;基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型;基于语义索引、倒排索引和所述问题轻量化匹配模型,构建领域FAQ智能问答系统。
在一种实现方式中,所述FAQ资源数据来源于人工坐席对话日志;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:从所述人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对;对所述候选问答对的内容进行去口语化和问题改写处理,得到标准问题;基于阅读理解和摘要生成技术,从所述候选问答对中抽取出与所述标准问题对应的候选答案,并对所述标准问题和所述候选答案进行问答质量评估;根据问答质量评估结果确定与所述标准问题对应的标准答案,将所述标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于文档文件;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:将所述文档文件进行结构化分析,识别出所述文档文件的子标题和所述子标题对应的段落;将所述子标题作为候选问题,将所述子标题对应的段落内容作为所述候选问题的答案;基于预设的问题改写模型将所述候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于文档文件;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:对所述文档文件进行结构化分析,识别出所述文档文件的段落;从所述段落中抽取可被提问的候选答案片段;根据所述段落及对应的候选答案片段,结合预设的问题生成模型生成问题;将所述生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于问题日志;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:从所述问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与所述问题需求相关的目标文档;基于阅读理解技术从所述目标文档中定位出与所述问题需求对应的核心答案;将所述问题需求和所述核心答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述的方法,还包括:计算历史问题日志中的问题与FAQ知识库中知识点的标准问题之间的语义匹配度;基于所述语义匹配度,从所述历史问题日志之中筛选出与所述知识点的标准问题同义的问题,并将筛选得到的问题作为对应知识点的扩展问题并写入所述FAQ知识库。
在一种实现方式中,所述基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型,包括:基于所述第一类训练数据对所述知识增强模型进行第一阶段训练,直至模型收敛后,将所述第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据所述第二阶段的热启参数构建新的知识增强模型;基于所述第二类训练数据对所述新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型;构建轻量化学生模型,并通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
在一种可选地实现方式中,所述通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,包括:基于全文检索数据库构建所述FAQ知识库的倒排索引,并基于用户日志中的问题信息从所述倒排索引中召回对应的知识点;通过知识蒸馏技术,利用所述教师模型对所述问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将所述打分数据作为蒸馏数据对所述学生模型进行训练。
根据本申请的第二方面,提供了一种问答处理方法,所述方法基于如第一方面所述的智能问答系统实现,所述方法包括:获取问答流程中的问答请求,并获取所述问答请求中的问题信息;采用语义索引和倒排索引技术,从所述常用问答对FAQ知识库中筛选出与所述问题信息相关的候选知识点;基于所述问题轻量化匹配模型对所述候选知识点进行排序,并根据排序后的候选知识点确定与所述问题信息对应的答案信息。
根据本申请的第三方面,提供了一种智能问答系统构建装置,包括:获取模块,用于获取不同来源的常用问答对FAQ资源数据;第一构建模块,用于根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;第二构建模块,用于从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据所述用户点击日志构建第一类训练数据;第三构建模块,用于基于所述FAQ知识库构建第二类训练数据;模型训练模块,用于基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型;第四构建模块,用于基于语义索引、倒排索引和所述问题轻量化匹配模型,构建领域FAQ智能问答系统。
在一种实现方式中,所述FAQ资源数据来源于人工坐席对话日志;所述第一构建模块具体用于:从所述人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对;对所述候选问答对的内容进行去口语化和问题改写处理,得到标准问题;基于阅读理解和摘要生成技术,从所述候选问答对中抽取出与所述标准问题对应的候选答案,并对所述标准问题和所述候选答案进行问答质量评估;根据问答质量评估结果确定与所述标准问题对应的标准答案,将所述标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于文档文件;所述第一构建模块具体用于:将所述文档文件进行结构化分析,识别出所述文档文件的子标题和所述子标题对应的段落;将所述子标题作为候选问题,将所述子标题对应的段落内容作为所述候选问题的答案;基于预设的问题改写模型将所述候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于文档文件;所述第一构建模块具体用于:对所述文档文件进行结构化分析,识别出所述文档文件的段落;从所述段落中抽取可被提问的候选答案片段;根据所述段落及对应的候选答案片段,结合预设的问题生成模型生成问题;将所述生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述FAQ资源数据来源于问题日志;所述第一构建模块具体用于:从所述问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与所述问题需求相关的目标文档;基于阅读理解技术从所述目标文档中定位出与所述问题需求对应的核心答案;将所述问题需求和所述核心答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,所述的装置还包括:计算模块,用于计算历史问题日志中的问题与FAQ知识库中知识点的标准问题之间的语义匹配度;问题扩展模块,用于基于所述语义匹配度,从所述历史问题日志之中筛选出与所述知识点的标准问题同义的问题,并将筛选得到的问题作为对应知识点的扩展问题并写入所述FAQ知识库。
在一种实现方式中,所述模型训练模块具体用于:基于所述第一类训练数据对所述知识增强模型进行第一阶段训练,直至模型收敛后,将所述第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据所述第二阶段的热启参数构建新的知识增强模型;基于所述第二类训练数据对所述新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型;构建轻量化学生模型,并通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
在一种实现方式中,所述模型训练模块具体用于:基于全文检索数据库构建所述FAQ知识库的倒排索引,并基于用户日志中的问题信息从所述倒排索引中召回对应的知识点;通过知识蒸馏技术,利用所述教师模型对所述问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将所述打分数据作为蒸馏数据对所述学生模型进行训练。
根据本申请的第四方面,提供一种问答处理装置,其中,所述装置基于如上述第三方面所述的智能问答系统实现,所述装置包括:获取模块,用于获取问答流程中的问答请求,并获取所述问答请求中的问题信息;检索模块,用于采用语义索引和倒排索引技术,从所述常用问答对FAQ知识库中筛选出与所述问题信息相关的候选知识点;排序模块,用于基于所述问题轻量化匹配模型对所述候选知识点进行排序;答案确定模块,用于根据排序后的候选知识点确定与所述问题信息对应的答案信息。
根据本申请第五方面,提供一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面,或第二方面所述的方法。
根据本申请第六方面,提供一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行第一方面,或第二方面所述的方法。
根据本申请第七方面,提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现第一方面,或第二方面所述方法的步骤。
根据本申请的技术,可以基于FAQ资源数据的来源,选择合适的处理方式进行FAQ挖掘,以快速构建FAQ知识库,并构建问题轻量化匹配模型,从而构建领域FAQ智能问答系统,提升FAQ智能问答系统在金融、通讯等专业领域的对话式人工智能AI场景下的智能化水平。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是本申请实施例提供的一种基于坐席对话日志构建FAQ知识库的示意图;
图3是根据本申请第二实施例的示意图;
图4是本申请实施例提供的一种基于子标题改写的FAQ知识库构建的示意图;
图5是根据本申请第三实施例的示意图;
图6是本申请实施例提供的一种基于子标题改写处理文档文件的示意图;
图7是本申请实施例提供的一种基于短答案问题生成的构建FAQ知识库示意图;
图8是根据本申请第四实施例的示意图;
图9是本申请实施例提供的一种基于短答案问题生成处理文档文件的示意图;
图10是本申请实施例提供的一种基于问题日志的FAQ知识库构建示意图;
图11是根据本申请第五实施例的示意图;
图12是本申请实施例提供的一种问题日志处理示意图;
图13是本申请实施例提供的教师模型训练流程示意图;
图14是根据本申请第六实施例的示意图;
图15是根据本申请第七实施例的示意图;
图16是本申请实施例提供的一种语义检索原理示意图;
图17是本申请实施例提供的一种领域FAQ智能问答系统构建方案示意图;
图18是本申请实施例提供了一种智能问答系统构建装置示意图;
图19是根据本申请实施例的另一种智能问答系统构建装置示意图;
图20是根据本申请实施例的一种问答处理装置示意图;
图21是根据本申请实施例的一种电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
请参见图1,图1是根据本申请第一实施例的一种智能问答系统构建方法的示意图。如图1所示,该方法可以包括但不限于以下步骤:
步骤S101,获取不同来源的常用问答对FAQ资源数据。
其中,在本申请的实施例中,常用问答对FAQ(frequently asked questions,常用问答对)资源数据的来源可以包括但不限于:人工坐席对话日志、文档文件及问题日志。
步骤S102,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库。
举例而言,根据FAQ资源数据的具体来源不同,选择对应的挖掘方式对获取的FAQ资源数据进行FAQ挖掘,基于挖掘到的相应数据构建常用问答对FAQ知识库。
步骤S103,从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据用户点击日志构建第一类训练数据,并基于FAQ知识库构建第二类训练数据。
举例而言,对搜索引擎系统的搜索日志按照领域进行筛选,选出同一领域的用户点击日志,提取上述点击日志中的查询query信息和该query信息对应的多个查询结果的标题title信息,将query-title以及点击同一个title信息的query信息两两采样构建成正例;从上述title信息的ES(Elasticsearch)召回集合中随机采样构建成强负例,从上述title信息对应的其他query信息中随机选择构建成弱负例,以构建第一类训练数据。对构建的FAQ知识库进行清洗,使得知识库中的各个知识点之间没有交叉、歧义、冗余等容易造成混淆的因素,然后将同一个知识点的标准问和扩展问之间两两匹配并采样构建正例,从一个知识点的标准问中随机采样构建成强负例,从该知识点的扩展问中随机选择构建成弱负例,以构建第二类训练数据。
步骤S104,基于知识增强模型,采用第一类训练数据和第二类训练数据构建问题轻量化匹配模型。
举例而言,分别采用第一类训练数据及第二类训练数据对知识增强模型进行两个阶段的训练,以构建问题轻量化匹配模型。
步骤S105,基于语义索引、倒排索引和问题轻量化匹配模型,构建领域FAQ智能问答系统。
举例而言,基于语义索引、倒排索引对获取的问题进行处理得到对应的多个知识点;基于问题轻量化匹配模型对上述多个知识点进行排序,并确定上述问题对应的答案信息,从而构建领域FAQ智能问答系统。
通过本申请的技术方案,可以基于FAQ资源数据的来源,选择对应的处理方式进行FAQ挖掘,以快速构建FAQ知识库,并构建问题轻量化匹配模型,从而构建领域FAQ智能问答系统,提升FAQ智能问答系统在金融、通讯等专业领域的对话式AI(ArtificialIntelligence,人工智能)场景下的智能化水平。
在本申请实施例的一种实现方式中,FAQ资源数据可来源于人工坐席对话日志。作为一种示例,请参见图2,图2是本申请实施例提供的一种基于坐席对话日志构建FAQ知识库的示意图。如图2所示,当FAQ资源数据来源于人工坐席对话日志时,本申请可从人工坐席对话日志中挖掘出用户高频问题的优质答复话术,并对用户的问题进行去口语化,并改写形成泛化能力较好的标准问题,同时对上述优质答复话术进行核心答案定位,从而形成标准问答对,以构建FAQ知识库。
作为一种示例,请参见图3,图3是根据本申请第二实施例的另一种构建常用问答对FAQ知识库的示意图。如图3所示,当FAQ资源数据来源于人工坐席对话日志时,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,可以包括但不限于以下步骤:
步骤301,从人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对。
举例而言,对人工坐席对话日志进行数据挖掘以获取日志中出现的问题及对应的多个答复话术,将出现频次大于预设阈值的答复话术与对应的问题进行配对,以得到候选问答对。其中,在本申请的实施例中,上述阈值为判断答复话术是否为优质答复话术的频次阈值。
步骤S302,对候选问答对的内容进行去口语化和问题改写处理,得到标准问题。
举例而言,将候选问答对中口语化表达的内容转换为书面化的表达,并将候选问答的原有表述方式改写为问题和答案的表述方式,以得到泛化能力较好的标准问题。在一种实现方式中,可利用预先训练的问题改写模型对已去口语化的候选问答对的内容进行问题改写,以得到标准问题。其中,该问题改写模型可以是预先基于训练数据训练而得到的,已经学习得到问题改写能力。
步骤S303,基于阅读理解和摘要生成技术,从候选问答对中抽取出与标准问题对应的候选答案,并对标准问题和候选答案进行问答质量评估。
举例而言,基于阅读理解和摘要生成技术,从候选问答对中抽取出与标准问题对应的多个候选答案,并分别对标准问题的多个候选答案进行问答质量评估(例如:计算每个候选答案与标准问题的相关性)。
在一种实现方式中,可利用预先训练的阅读理解模型和摘要生成模型对候选问答对进行处理,以从候选问答对中抽取出与标准问题对应的多个候选答案。
在一种实现方式中,可基于预先训练的相关性模型和问题识别模型对标准问题的多个候选答案进行问答质量评估。
步骤S304,根据问答质量评估结果确定与标准问题对应的标准答案,将标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
举例而言,从标准问题和对应的多个候选答案的问答质量评估结果中,选取问答质量评估结果最优(例如,与标准问题相关性最高)的候选答案,作为该标准问题对应的标准答案,将该标准问题和该标准答案组合构建成标准问答对并写入FAQ知识库。
通过实施本申请实施例,可以对来源于人工坐席对话日志的FAQ资源数据进行FAQ挖掘及后续处理,构建标准问答对,从而快速构建FAQ知识库,可以很好的满足知识更新快、知识点范围大的应用场景。
在本申请实施例的一种实现方式中,FAQ资源数据可来源于文档文件,该文档文件可为企业文档文件。当文档文件中带有子标题时,本申请可基于子标题改写构建FAQ知识库。作为一种示例,请参见图4,图4是本申请实施例提供的一种基于子标题改写的FAQ知识库构建的示意图。如图4所示,本申请可对文档文件进行结构化分析,识别出文档文件的子标题和对应的段落,进而通过问题改写模型生成FAQ问答对,以构建FAQ知识库。
作为一种示例,请参见图5,图5是根据本申请第三实施例的又一种构建FAQ知识库的示意图。如图5所示,当FAQ资源数据来源于文档文件时,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,可以包括但不限于以下步骤:
步骤S501,将文档文件进行结构化分析,识别出文档文件的子标题和子标题对应的段落。
作为一种示例,请参见图6,图6是本申请实施例提供的一种基于子标题改写处理文档文件的示意图。如图6所示,可从文档文件中识别出子标题“一、产品概述”和“二、操作手续”,及每个子标题后的对应段落。
步骤S502,将子标题作为候选问题,将子标题对应的段落内容作为候选问题的答案。
举例而言,将文档文件的标题与子标题进行标题拼接作为候选问题,将子标题对应的段落内容作为候选问题的答案。
作为一种示例,请参见图6,如图6所示,可将文档标题“个人汇款业务介绍”与子标题“二、操作手续”进行拼接,得到候选问题为:个人汇款业务介绍操作手续。并将子标题“二、操作手续”对应的段落内容作为该候选问题的答案。
步骤S503,基于预设的问题改写模型将候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
举例而言,基于预设的问题改写模型将子标题原有的表述形式改写为问题形式的表述,以将候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
作为一种示例,请参见图6,如图6所示,可基于预设的问题改写模型,将候选问题“个人汇款业务介绍操作手续”改写为“个人汇款如何操作?”,并将该问题和对应的答案组合构建成问答对并写入FAQ知识库。
通过实施本申请实施例,可以基于子标题改写,对来源于文档文件的FAQ资源数据进行FAQ挖掘及后续处理,以构建标准问答对,从而快速构建FAQ知识库,可以很好的满足知识更新快、知识点范围大的应用场景。
在本申请实施例的一种实现方式中,当FAQ资源数据来源于文档文件,且该文档文件中的某些段落包含有效知识点时,还可基于短答案问题生成构建FAQ知识库。作为一种示例,请参见图7,图7是本申请实施例提供的一种基于短答案问题生成的构建FAQ知识库示意图。如图7所示,当文档文件中的某些段落包含有效知识点时,可对该段落进行候选答案抽取,得到可以被提问的短片段,并基于该短片段及该短片段所在的原始段落生成问题,构建成FAQ问答对。
作为一种示例,请参见图8,图8是根据本申请第四实施例的又一种构建FAQ知识库的示意图。如图8所示,当FAQ资源数据来源于文档文件,且该文档文件中的某些段落包含有效知识点时,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,可以包括但不限于以下步骤:
步骤S801,对文档文件进行结构化分析,识别出文档文件的段落。
举例而言,对文档文件进行结构化分析以得到该文档文件的段落组成结构,从而识别出该文档文件的每个段落。
步骤S802,从段落中抽取可被提问的候选答案片段。
作为一种示例,请参见图9,图9是本申请实施例提供的一种基于短答案问题生成处理文档文件的示意图。如图9所示,文档文件中的段落中包含“存款证明的分类”这一有效知识点,从而从该段落中抽取可被提问的候选答案片段“存款证明分为时点性存款证明和时段性存款证明”。
步骤S803,根据段落及对应的候选答案片段,结合预设的问题生成模型生成问题。
作为一种示例,请参见图9,如图9所示,可根据文档文件中的段落,结合预设的问题生成模型生成问题:存款证明分为几种?
步骤S804,将生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
作为一种示例,请参见图9,如图9所示,将根据文档文件的段落生成得到的问题“存款证明分为几种?”和对应的候选答案片段组合“存款证明分为时点存款证明和时段性存款证明两种”构建成问答对并写入FAQ知识库。
通过实施本申请实施例,可基于短答案问题生成,对来源于文档文件的FAQ资源数据进行FAQ挖掘及后续处理,以构建标准问答对,从而快速构建FAQ知识库,可以很好的满足知识更新快、知识点范围大的应用场景。
在本申请实施例的一种实现方式中,FAQ资源数据还可来源于问题日志。作为一种示例,请参见图10,图10是本申请实施例提供的一种基于问题日志的FAQ知识库构建示意图。如图10所示,本申请可从历史日志中筛选出历史高频query,然后基于问答匹配模型从文档库中筛选出最相关的文档作为目标文档,并通过阅读理解模型从目标文档中定位出核心答案,然后将问题和核心答案组合构建成FAQ问答对,从而构建FAQ知识库。
作为一种示例,请参见图11,图11是根据本申请第五实施例的又一种构建FAQ知识库的示意图,本申请实施例中FAQ资源数据来源于问题日志。如图11所示,当FAQ资源数据来源于问题日志时,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建FAQ知识库,可以包括但不限于以下步骤:
步骤S1101,从问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与问题需求相关的目标文档。
举例而言,从问题日志中筛选出历史高频query作为用户的问题需求,并基于该问题需求,基于QP(quantization parameter,量化参数)相关性匹配模型从预设的文档库中筛选出与问题需求相关的多个文档,并基于每个文档的相关性,对上述目标文档进行排序,将相关性最高的文档作为目标文档。
其中,在本申请的实施例中,预设的文档库可以是预先收集的、与问题需求相同领域的文档组成的文档库。
作为一种示例,请参加图12,图12是本申请实施例提供的一种问题日志处理示意图。如图12所示,可从问题日志中筛选出用户的问题需求为:SLA是什么?从而从可以从该问题需求相关的文档库中,筛选出相关的目标文档。
步骤S1102,基于阅读理解技术从目标文档中定位出与问题需求对应的核心答案。
举例而言,基于阅读理解模型从目标文档中定位出与问题需求对应的多个答案,并选择最优答案作为核心答案。
作为一种示例,如图12所示,可基于阅读理解模型从多个答案中选出与问题“SLA是什么?”最相关的答案,作为最优答案。
步骤S1103,将问题需求和核心答案组合构建成问答对并写入FAQ知识库。
通过实施本申请实施例,可以对来源于问题日志的FAQ资源数据进行FAQ挖掘及后续处理,以构建标准问答对,从而快速构建FAQ知识库,可以很好的满足知识更新快、知识点范围大的应用场景。
在本申请的一种实现方式中,在构建常用问答对FAQ知识库后,还可基于匹配模型离线的对用户历史问题日志与知识点中的标准问进行语义匹配度计算,并将判定为同义的问题添加到知识点的扩展问集合中,同时将被判定为同义的知识点进行聚类,从而实现知识点的问法离线扩展。
举例而言,构建FAQ知识库后,基于匹配模型离线的计算用户历史问题日志中的问题与知识点中的标准问的语义匹配度,将语义匹配度大于或等于第一匹配度阈值的用户历史问题日志中的问题,判定为与知识点中的标准问同义的问题,从而将该问题添加到对应知识点的扩展问集合中;并计算不同知识点中的标准问的语义匹配度,将语义匹配度大于或等于第二匹配度阈值的两个不同知识点进行聚类,从而实现知识点的问法离线扩展。
其中,在本申请的实施例中,第一匹配度阈值为判定用户历史问题日志中的问题与知识点中的标准问是否同义的阈值;第二匹配度阈值为判定不同知识点中的标准问是否同义的阈值。
可以理解的是,通过上述本申请实施例提供的多种方式,可以借助生成模型、阅读理解模型等技术通过离线的方式快速批量构建FAQ问答对,后续只需要人工对所构建的FAQ问答对进行审核入库,即可完成FAQ知识库的构建。相较于人工总结FAQ问答对无论从效率还是权威性上都更具优势。
在本申请的一种实现方式中,还可基于多阶段整合技术,训练面向领域的问题轻量化匹配模型。作为一种示例,请参见图13,图13是本申请实施例提供的教师模型训练流程示意图。如图13所示,本申请可将第一类海量训练数据(即图13中所示的无标注数据)作为训练数据开展第一阶段训练,待模型收敛后,保存最优的检测点checkpoint作为二阶段训练的热启参数,同时将第二类训练数据(即图13中所示的大规模、搜索噪音点击日志)输入模型,以对模型进行重训,待模型收敛后即可选择测试集合表现最优的checkpoint生成教师模型。
作为一种示例,请参见图14,图14是根据本申请第六实施例的又一种智能问答系统构建方法示图。如图14所示,该方法可以包括但不限于以下步骤:
步骤S1401,获取不同来源的常用问答对FAQ资源数据。
在本申请的实施例中,步骤S1401可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤S1402,根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库。
在本申请的实施例中,步骤S1402可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤S1403,从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据用户点击日志构建第一类训练数据,并基于FAQ知识库构建第二类训练数据。
在本申请的实施例中,步骤S1403可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤S1404,基于第一类训练数据对知识增强模型进行第一阶段训练,直至模型收敛后,将第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据第二阶段的热启参数构建新的知识增强模型。
举例而言,以知识增强模型(如ERNIE2.0模型)的24层的large模型为热启参数,将第一类训练数据作为训练数据对知识增强模型进行第一阶段训练,待模型收敛后,保存最优的检测点checkpoint作为第二阶段训练的热启参数,并根据该热启参数构建新的知识增强模型。
步骤S1405,基于第二类训练数据对新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型。
举例而言,将第二类训练数据输入上述新的知识增强模型以对该模型进行训练,直至模型收敛后,选择测试集合表现最优的checkpoint作为教师模型。
可以理解的是,上述教师模型继承了知识增强模型既有的知识,具备了很好的泛化能力,同时对领域的主题词一致性和问题匹配标准也进行了充分学习,从而在目标任务上可以达到非常好的效果,但该模型的参数量较大,导致运行成本较高。
步骤S1406,构建轻量化学生模型,并通过知识蒸馏技术,利用FAQ知识库和教师模型对学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
举例而言,基于教师模型,使用知识蒸馏技术,从FAQ知识库中获取训练数据,以对学生模型进行训练,从而构建轻量化学生模型。
在一种实现方式中,通过知识蒸馏技术,利用FAQ知识库和教师模型对学生模型进行训练,可以包括以下步骤:基于全文检索数据库构建FAQ知识库的倒排索引,并基于用户日志中的问题信息从倒排索引中召回对应的知识点;通过知识蒸馏技术,利用教师模型对问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将打分数据作为蒸馏数据对学生模型进行训练。
举例而言,将FAQ知识库灌入ES等倒排索引中,以使用ES索引对用户日志中的问题信息进行数据分析以及检索查询,从而召回排名前十的知识点,然后用教师模型对问题信息和召回的知识点进行相关性置信度打分,得到打分数据,将该打分数据作为蒸馏数据对学生模型进行蒸馏训练。
需要说明的是,在本申请的实施例中,学生模型的架构可以是4层384的转换transformer模型,或者还可以是BOW(bagofwords,词袋)模型。上述两种模型架构的蒸馏逻辑相同,但相较于transformer模型,BOW模型的参数量较大,但运算复杂度较低,因此运算效率也较高,但对教师模型的学习能力稍弱,实际应用时可根据不同的需求进行选择。
可以理解的是,本申请实施例通过上述步骤,可通过蒸馏的方式在接近教师模型效果的前提下,大幅降低模型参数量和运算复杂度。
在本申请的一些实施例中,为了保证线上效果的稳定性,还可增加词表干预模块,而且该干预模块是开放式的,用户可以随时根据需求对干预词表进行更新,从而实现对线上异常场景的快速干预。
步骤S1407,基于语义索引、倒排索引和问题轻量化匹配模型,构建领域FAQ智能问答系统。
在本申请的实施例中,步骤S1407可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
通过实施本申请实施例,可以基于FAQ资源数据构建FAQ知识库,并基于该FAQ知识库及生成问题轻量化匹配模型,从而构建智能问答系统,提升用户问题的匹配知识点召回能力,提升智能问答系统在金融、通讯等专业领域的对话式AI场景下的智能化水平。
请参见图15,图15是根据本申请第七实施例的一种问答处理方法的示意图,该方法基于本申请任一实施例构建的智能问答系统实现。如图15所示,该方法可以包括但不限于以下步骤:
步骤S1501,获取问答流程中的问答请求,并获取问答请求中的问题信息。
举例而言,获取用户发出的问答请求,并获取该问答请求中包含的问题信息。
步骤S1502,采用语义索引和倒排索引技术,从常用问答对FAQ知识库中筛选出与问题信息相关的候选知识点。
举例而言,采用语义索引技术,将问题信息和FAQ知识库中的相似问题通过深度神经网络映射到语义表示空间的临近位置,通过高速向量索引技术对相似问题进行检索,以从常用问答对FAQ知识库中筛选出与问题信息相关的候选知识点。
作为一种示例,请参见图16,图16是本申请实施例提供的一种语义检索原理示意图。如图16所示,本申请可基于语义检索技术将用户问题:“固话出现了故障怎么保修”进行拆分,从而和FAQ集合的相似问题通过深度神经网络映射到语义表示空间的临近位置,以便于基于semanticvector(语义向量)对用户问题的相似问题进行检索。
可以理解的是,本申请通过语义索引和倒排索引相结合,可以保证领域词汇一致的结果能够被召回,同时对于不同用户多种口语化的问法也能较为准确的召回相关的知识点。
步骤S1503,基于问题轻量化匹配模型对候选知识点进行排序,并根据排序后的候选知识点确定与问题信息对应的答案信息。
举例而言,基于问题轻量化匹配模型对多个候选知识点进行排序,将序列最靠前的候选知识点确定为问题信息对应的答案信息。
通过实施本申请实施例,可以基于语义索引和倒排索引技术筛选出与问答流程中的问题信息相关的候选知识点,并基于问题轻量化匹配模型确定与问题信息对应的答案信息,从而对获取的问答请求进行处理,提升使用本申请实施例的问答处理方法的智能问答系统,在金融、通讯等专业领域的对话式AI场景下的智能化水平。
请参见图17,图17是本申请实施例提供的一种领域FAQ智能问答系统构建方案示意图。如图17所示,本申请的技术方案可采用多种FAQ挖掘方法,对多种来源的FAQ资源信息进行挖掘,以完成FAQ知识库的快速构建,从而基于语义理解及匹配模型,从FAQ知识库中筛选出与用户问题相关的候选知识点,确定与用户问题对应的准确答案。
请参见图18,图18是本申请实施例提供的一种智能问答系统构建装置示意图。如图18所示,该装置包括:获取模块1801,第一构建模块1802、第二构建模块1803、第三构建模块1804、模型训练模块1805及第四构建模块1806。
其中,获取模块1801,用于获取不同来源的常用问答对FAQ资源数据;第一构建模块,用于根据FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;第二构建模块,用于从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据用户点击日志构建第一类训练数据;第三构建模块,用于基于FAQ知识库构建第二类训练数据;模型训练模块,用于基于知识增强模型,采用第一类训练数据和第二类训练数据构建问题轻量化匹配模型;第四构建模块,用于基于语义索引、倒排索引和问题轻量化匹配模型,构建领域智能问答系统。
在一种实现方式中,FAQ资源数据来源于人工坐席对话日志;第一构建模块1802具体用于:从人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对;对候选问答对的内容进行去口语化和问题改写处理,得到标准问题;基于阅读理解和摘要生成技术,从候选问答对中抽取出与标准问题对应的候选答案,并对标准问题和候选答案进行问答质量评估;根据问答质量评估结果确定与标准问题对应的标准答案,将标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
在一种实现方式中,FAQ资源数据来源于文档文件;第一构建模块1802具体用于:将文档文件进行结构化分析,识别出文档文件的子标题和子标题对应的段落;将子标题作为候选问题,将子标题对应的段落内容作为候选问题的答案;基于预设的问题改写模型将候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,FAQ资源数据来源于文档文件;第一构建模块1802具体用于:对文档文件进行结构化分析,识别出文档文件的段落;从段落中抽取可被提问的候选答案片段;根据段落及对应的候选答案片段,结合预设的问题生成模型生成问题;将生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
在一种实现方式中,FAQ资源数据来源于问题日志;第一构建模块1802具体用于:从问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与问题需求相关的目标文档;基于阅读理解技术从目标文档中定位出与问题需求对应的核心答案;将问题需求和核心答案组合构建成问答对并写入FAQ知识库。
在一种实现方式中,上述装置还包括计算模块及问题扩展模块。作为一种示例,请参见图19,图19是根据本申请实施例的另一种智能问答系统构建装置示意图。如图19所示,该装置包括计算模块1907,用于计算历史问题日志中的问题与FAQ知识库中知识点的标准问题之间的语义匹配度;问题扩展模块1908,用于基于语义匹配度,从历史问题日志之中筛选出与知识点的标准问题同义的问题,并将筛选得到的问题作为对应知识点的扩展问题并写入FAQ知识库。其中,图19中1901-1906和图18中1801-1806具有相同功能和结构。
在一种实现方式中,模型训练模块1805具体用于:基于第一类训练数据对知识增强模型进行第一阶段训练,直至模型收敛后,将第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据第二阶段的热启参数构建新的知识增强模型;基于第二类训练数据对新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型;构建轻量化学生模型,并通过知识蒸馏技术,利用FAQ知识库和教师模型对学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
在一种实现方式中,模型训练模块1805具体用于:基于全文检索数据库构建FAQ知识库的倒排索引,并基于用户日志中的问题信息从倒排索引中召回对应的知识点;通过知识蒸馏技术,利用教师模型对问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将打分数据作为蒸馏数据对学生模型进行训练。
通过本申请实施例的装置,可以基于FAQ资源数据的来源,进行FAQ挖掘,以快速构建FAQ知识库,并构建问题轻量化匹配模型,从而构建领域FAQ智能问答系统,提升FAQ智能问答系统在金融、通讯等专业领域的对话式AI场景下的智能化水平。
请参见图20,图20是根据本申请实施例的一种问答处理装置示意图。如图20所示,该装置包括获取模块2001、检索模块2002、排序模块2003及答案确定模块2004,该装置基于本申请任一实施例提供的智能问答系统实现,其中,获取模块2001,用于获取问答流程中的问答请求,并获取问答请求中的问题信息;检索模块2002,用于采用语义索引和倒排索引技术,从常用问答对FAQ知识库中筛选出与问题信息相关的候选知识点;排序模块2003,用于基于问题轻量化匹配模型对候选知识点进行排序;答案确定模块2004,用于根据排序后的候选知识点确定与问题信息对应的答案信息。
通过本申请实施例的装置,可以基于语义索引和倒排索引技术筛选出与问答流程中的问题信息相关的候选知识点,并基于问题轻量化匹配模型确定与问题信息对应的答案信息,从而对获取的问答请求进行处理,提升使用本申请实施例的问答处理方法的智能问答系统,在金融、通讯等专业领域的对话式AI场景下的智能化水平。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图21所示,是根据本申请实施例的一种电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图21所示,该电子设备包括:一个或多个处理器2101、存储器2102,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图21中以一个处理器2101为例。
存储器2102即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的智能问答系统构建方法或问答处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的智能问答系统构建方法或问答处理方法。
存储器2102作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的智能问答系统构建方法对应的程序指令/模块(例如,附图18所示的获取模块1801,第一构建模块1802、第二构建模块1803、第三构建模块1804、模型训练模块1805及第四构建模块1806;附图19所示的计算模块1907及问题扩展模块1908);或者,本申请实施例中的智能问答处理方法对应的程序指令/模块(例如,附图20所示的获取模块2001、检索模块2002、排序模块2003及答案确定模块2004)。处理器2101通过运行存储在存储器2102中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的智能问答系统构建方法或问答处理方法。
存储器2102可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器2102可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器2102可选包括相对于处理器2101远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置2103和输出装置2104。处理器2101、存储器2102、输入装置2103和输出装置2104可以通过总线或者其他方式连接,图21中以通过总线连接为例。
输入装置2103可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置2104可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,可以基于FAQ资源数据的来源,选择合适的处理方式进行FAQ挖掘,以快速构建FAQ知识库,并构建问题轻量化匹配模型,从而构建领域FAQ智能问答系统,提升FAQ智能问答系统在金融、通讯等专业领域的对话式AI场景下的智能化水平。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (21)
1.一种智能问答系统构建方法,包括:
获取不同来源的常用问答对FAQ资源数据;
根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;
从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据所述用户点击日志构建第一类训练数据,并基于所述FAQ知识库构建第二类训练数据;
基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型;
基于语义索引、倒排索引和所述问题轻量化匹配模型,构建领域FAQ智能问答系统。
2.如权利要求1所述的方法,其中,所述FAQ资源数据来源于人工坐席对话日志;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:
从所述人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对;
对所述候选问答对的内容进行去口语化和问题改写处理,得到标准问题;
基于阅读理解和摘要生成技术,从所述候选问答对中抽取出与所述标准问题对应的候选答案,并对所述标准问题和所述候选答案进行问答质量评估;
根据问答质量评估结果确定与所述标准问题对应的标准答案,将所述标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
3.如权利要求1所述的方法,其中,所述FAQ资源数据来源于文档文件;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:
将所述文档文件进行结构化分析,识别出所述文档文件的子标题和所述子标题对应的段落;
将所述子标题作为候选问题,将所述子标题对应的段落内容作为所述候选问题的答案;
基于预设的问题改写模型将所述候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
4.如权利要求1所述的方法,其中,所述FAQ资源数据来源于文档文件;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:
对所述文档文件进行结构化分析,识别出所述文档文件的段落;
从所述段落中抽取可被提问的候选答案片段;
根据所述段落及对应的候选答案片段,结合预设的问题生成模型生成问题;
将所述生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
5.如权利要求1所述的方法,其中,所述FAQ资源数据来源于问题日志;所述根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库,包括:
从所述问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与所述问题需求相关的目标文档;
基于阅读理解技术从所述目标文档中定位出与所述问题需求对应的核心答案;
将所述问题需求和所述核心答案组合构建成问答对并写入FAQ知识库。
6.如权利要求1所述的方法,还包括:
计算历史问题日志中的问题与FAQ知识库中知识点的标准问题之间的语义匹配度;
基于所述语义匹配度,从所述历史问题日志之中筛选出与所述知识点的标准问题同义的问题,并将筛选得到的问题作为对应知识点的扩展问题并写入所述FAQ知识库。
7.如权利要求1所述的方法,其中,所述基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型,包括:
基于所述第一类训练数据对所述知识增强模型进行第一阶段训练,直至模型收敛后,将所述第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据所述第二阶段的热启参数构建新的知识增强模型;
基于所述第二类训练数据对所述新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型;
构建轻量化学生模型,并通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
8.如权利要求7所述的方法,其中,所述通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,包括:
基于全文检索数据库构建所述FAQ知识库的倒排索引,并基于用户日志中的问题信息从所述倒排索引中召回对应的知识点;
通过知识蒸馏技术,利用所述教师模型对所述问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将所述打分数据作为蒸馏数据对所述学生模型进行训练。
9.一种问答处理方法,其中,所述方法基于如权利要求1至8中任一项所述的智能问答系统实现,所述方法包括:
获取问答流程中的问答请求,并获取所述问答请求中的问题信息;
采用语义索引和倒排索引技术,从所述常用问答对FAQ知识库中筛选出与所述问题信息相关的候选知识点;
基于所述问题轻量化匹配模型对所述候选知识点进行排序,并根据排序后的候选知识点确定与所述问题信息对应的答案信息。
10.一种智能问答系统构建装置,包括:
获取模块,用于获取不同来源的常用问答对FAQ资源数据;
第一构建模块,用于根据所述FAQ资源数据的来源信息,采用对应的挖掘方式对FAQ资源数据进行FAQ挖掘,以构建常用问答对FAQ知识库;
第二构建模块,用于从搜索引擎系统的搜索日志中按照领域筛选出用户点击日志,并根据所述用户点击日志构建第一类训练数据;
第三构建模块,用于基于所述FAQ知识库构建第二类训练数据;
模型训练模块,用于基于知识增强模型,采用所述第一类训练数据和所述第二类训练数据构建问题轻量化匹配模型;
第四构建模块,用于基于语义索引、倒排索引和所述问题轻量化匹配模型,构建领域FAQ智能问答系统。
11.如权利要求10所述的装置,其中,所述FAQ资源数据来源于人工坐席对话日志;所述第一构建模块具体用于:
从所述人工坐席对话日志中挖掘出问题出现频次大于预设阈值的答复话术,以得到候选问答对;
对所述候选问答对的内容进行去口语化和问题改写处理,得到标准问题;
基于阅读理解和摘要生成技术,从所述候选问答对中抽取出与所述标准问题对应的候选答案,并对所述标准问题和所述候选答案进行问答质量评估;
根据问答质量评估结果确定与所述标准问题对应的标准答案,将所述标准问题和标准答案组合构建成标准问答对并写入FAQ知识库。
12.如权利要求10所述的装置,其中,所述FAQ资源数据来源于文档文件;所述第一构建模块具体用于:
将所述文档文件进行结构化分析,识别出所述文档文件的子标题和所述子标题对应的段落;
将所述子标题作为候选问题,将所述子标题对应的段落内容作为所述候选问题的答案;
基于预设的问题改写模型将所述候选问题改写成问题,将改写得到的问题和对应的答案组合构建成问答对并写入FAQ知识库。
13.如权利要求10所述的装置,其中,所述FAQ资源数据来源于文档文件;所述第一构建模块具体用于:
对所述文档文件进行结构化分析,识别出所述文档文件的段落;
从所述段落中抽取可被提问的候选答案片段;
根据所述段落及对应的候选答案片段,结合预设的问题生成模型生成问题;
将所述生成得到的问题和对应的候选答案片段组合构建成问答对并写入FAQ知识库。
14.如权利要求10所述的装置,其中,所述FAQ资源数据来源于问题日志;所述第一构建模块具体用于:
从所述问题日志中筛选出用户的问题需求,并从预设的文档库中筛选出与所述问题需求相关的目标文档;
基于阅读理解技术从所述目标文档中定位出与所述问题需求对应的核心答案;
将所述问题需求和所述核心答案组合构建成问答对并写入FAQ知识库。
15.如权利要求10所述的装置,还包括:
计算模块,用于计算历史问题日志中的问题与FAQ知识库中知识点的标准问题之间的语义匹配度;
问题扩展模块,用于基于所述语义匹配度,从所述历史问题日志之中筛选出与所述知识点的标准问题同义的问题,并将筛选得到的问题作为对应知识点的扩展问题并写入所述FAQ知识库。
16.如权利要求10所述的装置,其中,所述模型训练模块具体用于:
基于所述第一类训练数据对所述知识增强模型进行第一阶段训练,直至模型收敛后,将所述第一阶段训练中所保存的最优模型文件作为第二阶段的热启参数,并根据所述第二阶段的热启参数构建新的知识增强模型;
基于所述第二类训练数据对所述新的知识增强模型进行训练,直至模型收敛后,将训练中所保存的最优模型文件作为教师模型;
构建轻量化学生模型,并通过知识蒸馏技术,利用所述FAQ知识库和所述教师模型对所述学生模型进行训练,将训练好的学生模型确定为问题轻量化匹配模型。
17.如权利要求16所述的装置,其中,所述模型训练模块具体用于:
基于全文检索数据库构建所述FAQ知识库的倒排索引,并基于用户日志中的问题信息从所述倒排索引中召回对应的知识点;
通过知识蒸馏技术,利用所述教师模型对所述问题信息和召回的知识点进行相关性置信度打分,得到打分数据,并将所述打分数据作为蒸馏数据对所述学生模型进行训练。
18.一种问答处理装置,其中,所述装置基于如权利要求10至17中任一项所述的智能问答系统实现,所述装置包括:
获取模块,用于获取问答流程中的问答请求,并获取所述问答请求中的问题信息;
检索模块,用于采用语义索引和倒排索引技术,从所述常用问答对FAQ知识库中筛选出与所述问题信息相关的候选知识点;
排序模块,用于基于所述问题轻量化匹配模型对所述候选知识点进行排序;
答案确定模块,用于根据排序后的候选知识点确定与所述问题信息对应的答案信息。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述的方法,或者,能够执行权利要求9所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1至8中任一项所述的方法,或者,执行权利要求9所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1至8中任一项所述方法的步骤,或者实现权利要求9所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210573216.1A CN114860913B (zh) | 2022-05-24 | 2022-05-24 | 智能问答系统构建方法、问答处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210573216.1A CN114860913B (zh) | 2022-05-24 | 2022-05-24 | 智能问答系统构建方法、问答处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114860913A true CN114860913A (zh) | 2022-08-05 |
CN114860913B CN114860913B (zh) | 2023-12-12 |
Family
ID=82640271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210573216.1A Active CN114860913B (zh) | 2022-05-24 | 2022-05-24 | 智能问答系统构建方法、问答处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114860913B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117194647A (zh) * | 2023-11-03 | 2023-12-08 | 深圳墨影科技有限公司 | 一种用于离线环境的智能问答系统、方法及装置 |
CN117725423A (zh) * | 2024-02-18 | 2024-03-19 | 青岛海尔科技有限公司 | 基于大模型的反馈信息的生成方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140280087A1 (en) * | 2013-03-15 | 2014-09-18 | International Business Machines Corporation | Results of Question and Answer Systems |
CN104216913A (zh) * | 2013-06-04 | 2014-12-17 | Sap欧洲公司 | 问题回答框架 |
CN110727779A (zh) * | 2019-10-16 | 2020-01-24 | 信雅达系统工程股份有限公司 | 基于多模型融合的问答方法及系统 |
CN111125334A (zh) * | 2019-12-20 | 2020-05-08 | 神思电子技术股份有限公司 | 一种基于预训练的搜索问答系统 |
CN111813911A (zh) * | 2020-06-30 | 2020-10-23 | 神思电子技术股份有限公司 | 一种基于用户监督反馈的知识自动采集与更新系统及其工作方法 |
US20210390418A1 (en) * | 2020-06-10 | 2021-12-16 | International Business Machines Corporation | Frequently asked questions and document retrival using bidirectional encoder representations from transformers (bert) model trained on generated paraphrases |
CN114357127A (zh) * | 2021-11-19 | 2022-04-15 | 武汉科技大学 | 基于机器阅读理解及常用问题解答模型的智能问答方法 |
-
2022
- 2022-05-24 CN CN202210573216.1A patent/CN114860913B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140280087A1 (en) * | 2013-03-15 | 2014-09-18 | International Business Machines Corporation | Results of Question and Answer Systems |
CN104216913A (zh) * | 2013-06-04 | 2014-12-17 | Sap欧洲公司 | 问题回答框架 |
CN110727779A (zh) * | 2019-10-16 | 2020-01-24 | 信雅达系统工程股份有限公司 | 基于多模型融合的问答方法及系统 |
CN111125334A (zh) * | 2019-12-20 | 2020-05-08 | 神思电子技术股份有限公司 | 一种基于预训练的搜索问答系统 |
US20210390418A1 (en) * | 2020-06-10 | 2021-12-16 | International Business Machines Corporation | Frequently asked questions and document retrival using bidirectional encoder representations from transformers (bert) model trained on generated paraphrases |
CN111813911A (zh) * | 2020-06-30 | 2020-10-23 | 神思电子技术股份有限公司 | 一种基于用户监督反馈的知识自动采集与更新系统及其工作方法 |
CN114357127A (zh) * | 2021-11-19 | 2022-04-15 | 武汉科技大学 | 基于机器阅读理解及常用问题解答模型的智能问答方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117194647A (zh) * | 2023-11-03 | 2023-12-08 | 深圳墨影科技有限公司 | 一种用于离线环境的智能问答系统、方法及装置 |
CN117194647B (zh) * | 2023-11-03 | 2024-02-20 | 深圳墨影科技有限公司 | 一种用于离线环境的智能问答系统、方法及装置 |
CN117725423A (zh) * | 2024-02-18 | 2024-03-19 | 青岛海尔科技有限公司 | 基于大模型的反馈信息的生成方法及装置 |
CN117725423B (zh) * | 2024-02-18 | 2024-05-24 | 青岛海尔科技有限公司 | 基于大模型的反馈信息的生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114860913B (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111125335B (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN110717339B (zh) | 语义表示模型的处理方法、装置、电子设备及存储介质 | |
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
KR102532396B1 (ko) | 데이터 세트 처리 방법, 장치, 전자 기기 및 저장 매체 | |
CN110727806B (zh) | 基于自然语言和知识图谱的文本处理方法及装置 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
CN111831813B (zh) | 对话生成方法、装置、电子设备及介质 | |
CN111177355B (zh) | 基于搜索数据的人机对话交互方法、装置和电子设备 | |
CN114860913B (zh) | 智能问答系统构建方法、问答处理方法及装置 | |
CN112487814A (zh) | 实体分类模型训练方法、实体分类方法、装置及电子设备 | |
CN111428514A (zh) | 语义匹配方法、装置、设备以及存储介质 | |
CN112528001B (zh) | 一种信息查询方法、装置及电子设备 | |
US20220129448A1 (en) | Intelligent dialogue method and apparatus, and storage medium | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
US20220027575A1 (en) | Method of predicting emotional style of dialogue, electronic device, and storage medium | |
JP7295200B2 (ja) | 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム | |
CN112507090A (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
CN110543558A (zh) | 问题匹配方法、装置、设备和介质 | |
CN113869060A (zh) | 语义数据的处理方法及搜索方法、装置 | |
CN111859953A (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
CN111274397A (zh) | 建立实体关系检测模型的方法以及装置 | |
CN111966782A (zh) | 多轮对话的检索方法、装置、存储介质及电子设备 | |
CN110991183A (zh) | 问题的谓词确定方法、装置、设备及存储介质 | |
CN113342946B (zh) | 客服机器人的模型训练方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |