CN114706963A - 问答处理方法及智能设备 - Google Patents
问答处理方法及智能设备 Download PDFInfo
- Publication number
- CN114706963A CN114706963A CN202210262132.6A CN202210262132A CN114706963A CN 114706963 A CN114706963 A CN 114706963A CN 202210262132 A CN202210262132 A CN 202210262132A CN 114706963 A CN114706963 A CN 114706963A
- Authority
- CN
- China
- Prior art keywords
- answer
- question
- model
- machine reading
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C7/00—Arrangements for writing information into, or reading information out from, a digital store
- G11C7/16—Storage of analogue signals in digital stores using an arrangement comprising analogue/digital [A/D] converters, digital memories and digital/analogue [D/A] converters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种问答处理方法及智能设备,涉及自然语言处理技术领域,其中所述方法包括利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练;将待测文本数据输入所述问答生成模型,生成目标问题和基准答案;将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案;对所述预测答案进行校验,若所述预测答案校验成功,则存储所述目标问题和所述预测答案的匹配对。本发明方案能提升智能设备问答交互的准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种问答处理方法及智能设备。
背景技术
在一些人机交互场景中,如智能电视、智能音响等智能设备可支持对话功能,用户可与智能设备进行问答互动,例如用户向智能音响提问“今天天气怎么样?”,智能设备回答“今天晴,温度0℃~15℃”,又例如用户向智能冰箱提问“冷冻室里有什么?”,智能冰箱回答“鱼肉、牛肉和冰淇淋”。
智能设备内可预置有模型架构,通过对模型架构进行问答训练,以生成预测模型,所述预测模型用于输出与用户提出的问题相匹配的答案。预测模型的精度直接影响智能设备问答的准确性,若预测模型精度不够,智能设备在响应用户提问后,可能给出错误答案或不理解的回复等。
发明内容
为解决上述背景技术中的问题,本发明提供一种问答处理方法及智能设备。
第一方面提供一种智能设备,包括:
存储器,被配置为存储问答训练后构建的问题与答案的匹配对;
控制器,被配置为执行:
利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练;
将待测文本数据输入所述问答生成模型,生成目标问题和基准答案;
将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案;
对所述预测答案进行校验,若所述预测答案校验成功,将所述目标问题和所述预测答案的匹配对写入与所述机器阅读理解模型关联的所述存储器内。
在一些实施例中,所述控制器被配置按照如下方式执行所述联动训练:
利用所述样本数据对第一预训练模型进行微调,得到初阶的问答生成模型;
利用所述样本数据对第二预训练模型进行微调,得到初阶的机器阅读理解模型;
对初阶的问答生成模型和机器阅读理解模型启动联动训练。
在一些实施例中,所述控制器被配置按照如下方式执行所述联动训练:
先以初阶的机器阅读理解模型为基准,对初阶的问答生成模型进行参数优化,得到进阶的问答生成模型;
然后以所述进阶的问答生成模型为基准,对初阶的机器阅读理解模型进行参数优化,得到进阶的机器阅读理解模型。
在一些实施例中,所述控制器被配置按照如下方式得到进阶的问答生成模型:
利用所述样本数据训练所述初阶的问答生成模型,计算所述初阶的问答生成模型的第一损失值;所述样本数据中包括描述文本、样本问题和样本答案;
将所述描述文本以及所述初阶的问答生成模型输出的第一问题和第一答案输入至所述初阶的机器阅读理解模型,计算所述初阶的机器阅读理解模型的第二损失值;
利用所述第一损失值及其对应的第一权重,所述第二损失值及其对应的第二权重,计算第一加权损失值;
根据所述第一加权损失值对所述初阶的问答生成模型进行参数优化。
在一些实施例中,所述控制器被配置按照如下方式得到进阶的机器阅读理解模型:
将所述样本数据分别输入至所述初阶的机器阅读理解模型和进阶的问答生成模型;
计算所述进阶的问答生成模型的第三损失值,以及,计算所述初阶的机器阅读理解模型的第四损失值;
利用所述第三损失值及其对应的第三权重,所述第四损失值及其对应的第四权重,计算第二加权损失值;
根据所述第二加权损失值对所述初阶的机器阅读理解模型进行参数优化。
在一些实施例中,所述控制器还被配置执行:
利用第一爬虫策略,获取热搜关键词;
利用第二爬虫策略,从网络资源中获取与所述热搜关键词相关的目标文本数据;
对所述目标文本数据进行数据预处理,并保存为所述待测文本数据。
在一些实施例中,所述控制器还被配置按照如下方式对所述预测答案进行校验:
计算所述进阶的机器阅读理解模型输出的预测答案的置信度;
若所述置信度大于或等于预设阈值,并且所述预测答案与所述进阶的问答生成模型输出的基准答案一致,则判定所述预测答案校验成功。
在一些实施例中,所述控制器还被配置执行:若所述置信度小于所述预设阈值,或者,所述预测答案与所述基准答案不一致,则丢弃所述预测答案。
在一些实施例中,所述控制器还被配置执行:
若所述智能设备还包括声音采集器和声音播放器,通过所述声音采集器接收用户语音输入的第一问题,
在所述存储器内查询所述第一问题所属的第一目标匹配对,并控制所述声音播放器播报所述第一目标匹配对中的答案;
和/或,
若所述智能设备还包括显示器,接收用户输入的第二问题,控制所述显示器显示所述第二问题,
在所述存储器内查询所述第二问题所属的第二目标匹配对,并控制所述显示器显示所述第二目标匹配对中的答案。
第二方面提供一种问答处理方法,所述方法包括:
利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练;
将待测文本数据输入所述问答生成模型,生成目标问题和基准答案;
将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案;
对所述预测答案进行校验,若所述预测答案校验成功,则存储所述目标问题和所述预测答案的匹配对。
第二方面的其他实施例可适应性参照前述第一方面,此处不再赘述。
本申请中智能设备底层包括两种模型,第一种是用于从文本中自动提取问题及其答案的问答生成模型;第二种是机器阅读理解模型,将文本和问题输入机器阅读理解模型,机器阅读理解模型基于文本语义理解和关键词相关性等,从文本中查找和定位问题对应的答案。本申请对两种模型实行联动训练机制,所谓联动训练是指以模型2为基准,对模型1进行参数优化,实现模型1的进阶,之后以进阶的模型1为基准,对模型2进行参数优化,实现模型2的进阶,之后利用进阶的模型1和模型2进行预测及校验。在预测及校验阶段,将待测文本数据输入问答生成模型中,即可从文本中提取出目标问题和基准答案,例如待测文本数据为“电影A是由演员X导演并主演的”,则提取的目标问题之一为“电影A的导演是谁”,基准答案为“演员X”;然后将待测文本数据和目标问题输入及其阅读理解模型,并对输出的预测答案进行校验,若校验成功,将“电影A的导演是谁”+“演员X”这一匹配对写入存储器,即将准确的问答预测结果入库存储,后续智能设备接收到用户提问的问题时,从库内查询问题对应的答案,并将答案反馈给用户,从而提升问答交互的准确性。
附图说明
图1示例性示出了一种语音识别网络架构图;
图2示例性示出了用户与智能音响进行问答交互的场景图;
图3示例性示出了用户与智能冰箱进行问答交互的场景图;
图4示例性示出了用户与显示设备进行问答交互的场景图;
图5示例性示出了问答处理方法的流程图;
图6示例性示出了联动训练第一阶段的流程图;
图7示例性示出了联动训练第二阶段的流程图;
图8示例性示出了联动训练第三阶段的流程图;
图9示例性示出了利用Model1_2和Model1_2进行预测和校验的流程图;
图10示例性示出了待测文本数据的搜集及预处理流程图;
图11示例性示出了智能设备的问答设置页面;
图12示例性示出了打开开关控件后,智能设备未连接网络时的问答设置页面变化效果图;
图13示例性示出了第一种智能设备的结构配置示意图;
图14示例性示出了第二种智能设备的结构配置示意图;
图15示例性示出了第三种智能设备的结构配置示意图。
具体实施方式
为使本申请的目的和实施方式更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
本申请中说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明。应该理解这样使用的用语在适当情况下可以互换。
术语“包括”和“具有”以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的所有组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
在一些应用场景中,智能设备可支持人机交互,尤其是对话功能,对话功能又涉及问答功能,所述问答功能即用户向智能设备提问一个问题,智能设备查询答案后作出回答。通过用户与智能设备的问答交互,一方面能够为用户答疑解惑,实现知识传递,另一方面有利于智能设备问答系统的进化。其中,所述智能设备不限于智能电视、智能音响、智能冰箱、智能手机等终端类型。
本申请中可能会涉及到智能设备的语音控制和交互,例如用户通过语音形式向智能设备提问问题。在语音控制领域中,实体是指客观存在并可互相区别的事物,包括具体的人、事、物、机构、抽象的概念等;知识图谱本质上是一种语义网络,能够代表实体之间的语义关系。知识图谱中以实体为顶点或节点,以关系为边。知识图谱可通过多种方式构建,本申请实施例的重点并非如何构建知识图谱,所以对此不进行详细描述。
参见图1,智能设备用于接收输入的语音信息以及输出对该语音信息的处理结果。语音识别服务设备为部署有语音识别服务的电子设备,语义服务设备为部署有语义服务的电子设备,业务服务设备为部署有业务服务的电子设备。这里的电子设备可包括服务器、计算机等,这里的语音识别服务、语义服务(也可称为语义引擎)和业务服务为可部署在电子设备上的web服务,其中,语音识别服务用于将音频识别为文本,语义服务用于对文本进行语义解析,业务服务用于提供具体的服务如墨迹天气的天气查询服务、QQ音乐的音乐查询服务等。在一些实施例中,图1所示架构中可存在部署有不同业务服务的多个实体服务设备,也可以一个或多个实体服务设备中集合一项或多项功能服务。
在一些实施例中,下面对基于图1所示架构处理输入智能设备的语音信息的过程进行举例描述,以输入智能设备的信息为通过语音输入的查询语句为例,上述过程可包括如下三个过程:
[语音识别]
智能设备可在接收到通过语音输入的查询语句后,将该查询语句的音频上传至语音识别服务设备,以由语音识别服务设备通过语音识别服务将该音频识别为文本后返回至智能设备。在一个实施例中,将查询语句的音频上传至语音识别服务设备前,智能设备可对查询语句的音频进行去噪处理,这里的去噪处理可包括去除回声和环境噪声等步骤。
[语义理解]
智能设备将语音识别服务识别出的查询语句的文本上传至语义服务设备,以由语义服务设备通过语义服务对该文本进行语义解析,得到文本的业务领域、意图等。
[语义响应]
语义服务设备根据对查询语句的文本的语义解析结果,向相应的业务服务设备下发查询指令,以获取业务服务给出的查询结果。智能设备可从语义服务设备获取该查询结果并输出。作为一个实施例,语义服务设备还可将对查询语句的语义解析结果发送至智能设备,以由智能设备输出该语义解析结果中的反馈语句。需要说明的是,图1所示架构只是一种示例,并非对本申请保护范围的限定。本申请实施例中,也可采用其他架构来实现类似功能,例如:三个过程全部或部分可以由智能终端来完成,在此不做赘述。
在一些应用场景中,如图2的场景示例,智能音响可配置有声音采集器和声音播放器,声音采集器例如是麦克风等收音设备,声音播放器例如是内置扬声器等。用户向智能音响提问“世界上最高的山峰是什么?”,智能音响采集该语音信息1,并参照前述语音处理架构对语音信息1进行解析及响应,在获知用户意图为知识提问以及具体问题后,在知识库或问答库内查询问题对应的答案,并通过声音播放器播报答案为“珠穆朗玛峰”。
在一些应用场景中,如图3的场景示例,智能冰箱可配置有声音采集器和声音播放器,用户在制定午餐食谱时,需要获悉冰箱内储存哪些现有食材,则用户向智能冰箱提问“冷冻室里有什么?”,智能音响采集该语音信息2,并对语音信息2进行解析及响应,在获知用户意图为查询冷冻室内的食材后,在本地食材库内查询冷冻室内存储的食材种类,并通过声音播放器播放答案为“鱼肉、牛肉和鸡肉”。
在一些应用场景中,如图4的场景示例,显示设备可配置有显示器等硬件设备,基于显示设备的能力配置,用户可通过如遥控器、电子/实体键盘、鼠标、触控、语音等形式输入问题,显示设备响应于问题输入,控制显示器在对话页面显示问题,例如显示的问题为“电影A的女主角是谁?”,显示设备若在知识库或问答库内查询到该问题对应的答案,则在对话页面显示答案,例如显示的答案为“演员X”。
智能设备的知识库或问答库有些依靠人工进行构建、维护及数据扩充,一旦用户的提问超出库内的知识储备,例如问题比较冷僻,或者问题中涉及一些新兴网络用语等,智能设备可能会输出错误答案或者无法作为不理解的回复。智能设备还可通过训练模型来构建知识库或问答库,但模型精度不足,同样会导致问答精准度低。
在一些实施例中,本申请提供一种双模型联动的训练和预测机制,由此提升预测输出的问题+答案匹配对的精准性,并将正确的问答匹配对写入问答库内,通过问答匹配对的累积实现问答库的数据扩充。
在一些实施例中,智能设备还包括存储器,用于存储所述问答库内的数据,智能设备可通过声音采集器来接收用户语音输入的第一问题,并在存储器内查询第一问题所属的第一目标匹配对,由于匹配对用于记录问题与答案的对应关系,因此确定第一目标匹配对后,即可对应于第一问题的答案,智能设备控制声音播放器播放第一目标匹配对中的答案,从而实现语音形式的问答交互。
在一些实施例中,智能设备可包括用于呈现用户界面的显示器,用户可通过如遥控器、电子/实体键盘、鼠标等装置输入第二问题,智能设备控制显示器同步显示第二问题的文字信息,同时在存储器内查询第二问题所属的第二目标匹配对,之后再控制显示器显示第二目标匹配对中的答案,从而实现UI形式的问答交互。
在一些实施例中,智能设备中还包括控制器,控制器中配置有操作系统和逻辑程序等,控制器与智能设备的存储器和其他硬件装置连接,实现对智能设备的控制和功能实现。参照图5示例的问答处理方法,通过该方法实现对问答库的构建和数据扩充,所述方法被配置为由控制器执行,整体包括如下程序步骤:
步骤S501,利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练。
本申请中智能设备底层包括两种训练模型,分别是问答生成模型和机器阅读理解模型。其中,问答生成模型主要用于从文本中自动提取可能的问题及其答案,例如某文本描述为“电影A是演员X导演及主演的”,则从该段文本中能够提取的问题1为“电影A的导演是谁?”,问题1的答案为“演员X”,提取的问题2为“电影A的主演是谁?”,问题2的答案为“演员X”。
机器阅读理解(Machine Reading Comprehension,MRC)模型,是一种利用算法使计算机理解文章语义,进而从文章中找寻问题的答案的技术,将文本和问题语句输入机器阅读理解模型中,机器阅读理解模型基于文本与问题之间的相关性,例如问题语句中出现“河流”,文本中具有关键词“长江”,虽然两个关键词不完全一致,但是其语义编码相近,具有较高的相关性,因此文本中“长江”一词及其临近的上下文语句将成为模型回问答题时的重点关注对象,进而查找和定位问题对应的答案,输出预测结果。
其中,所述样本数据是为训练问答生成模型和机器阅读理解模型所制定的一套通用数据,所述样本数据内包括描述文本、样本问题和样本答案。在联动训练机制的不同阶段均可重复调用样本数据进行训练。
在一些实施例中,为方便描述,将问答生成模型命名为Model1,将机器阅读理解模型命名为Model2,所谓联动训练是指先以Model2为基准,对Model1进行参数优化,使问答生成模型由初阶的Model1_1进化为进阶的Model1_2;然后以Model1_2为基准,对Model2进行参数优化,实现机器阅读理解模型由初阶的Model2_1进化为进阶的Model2_2。之后利用Model1_2和Model2_2进行如下预测及校验流程。
步骤S502,将待测文本数据输入所述问答生成模型,生成目标问题和基准答案。
所述待测文本数据是智能设备根据Model1_2和Model2_2进行预测时所使用的数据,一般用于对问答库进行知识储备的扩充,所述待测文本数据可以是人工制定,也可是来源于网络的海量开放世界文本。将待测文本数据输入Model1_2内,即可自动生成并输出目标问题及其对应的基准答案。
步骤S503,将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案。
将待测文本数据和Model1_2生成的目标问题输入Model2_2,Model2_2从待测文本数据中匹配回答目标问题的答案,即所述预测答案。
步骤S504,对所述预测答案进行校验。
步骤S505,判断所述预测答案是否校验成功。若所述预测答案校验成功,则执行步骤S506;若所述预测答案校验失败,则执行步骤S507。
步骤S506,将所述目标问题和预测答案的匹配对写入与所述机器阅读理解模型关联的存储器内。
步骤S507,丢弃所述预测答案。
当预测答案校验成功时,即目标问题与预测答案匹配成功,允许将该匹配对存入问答库内;反之,若预测答案校验失败,则为直接丢弃预测答案,即不允许将目标问题和预测答案写入问答库,从而保证问答库内数据的精准性。
在一些实施例中,对于前述步骤S501中涉及的双模型联动训练机制,主要可划分为如下三个阶段:
(一)如图6所示,在联动训练机制的第一阶段中,需要调用两个初始的预训练模型,分别命名为第一预训练模型和第二预训练模型,其中第一预训练模型是问答生成模型的初始模型策略,第二预训练模型是机器阅读理解模型的初始模型策略。
在一些实施例中,第一预训练模型和第二预训练模型可根据训练要求适当选取,例如第一预训练模型可选择mT5-PEGASUS,第二预训练模型可选择BERT。其中,mT5-PEGASUS是以mT5为基础架构和初始权重,先结合中文特点完善Tokenizer(分词器),然后模仿PEGASUS来构建预训练任务,进而训练出的新版mT5模型。BERT(Bidirectional EncoderRepresentation from Transformers,基于转换器的双向编码表征)是一种基于深度的双向语言表征的预训练模型。mT5-PEGASUS和BERT预训练模型的架构和原理可参照现有技术,本申请不再赘述。
在一些实施例中,参照图6,将样本数据分别输入至第一预训练模型和第二预训练模型中,利用样本数据对第一预训练模型进行微调,得到初阶的问答生成模型,即Model1_1;以及,利用样本数据对第二预训练模型进行微调,得到初阶的机器阅读理解模型,即Model2_1。
在第一阶段中涉及两个概念“预训练”和“微调”,其中预训练(pre-training)是指预先搭建一个模型,并执行对模型的训练任务,在此期间不断优化模型的参数,在模型的参数满足训练要求时,保存模型参数,从而得到预训练模型;微调(fine tuning)是指在利用别人训练得到的预训练模型的基础上,自行设计下游神经网络结构,从而将自己的数据集(即前述样本数据)和任务作用于预训练模型,在训练过程中使模型参数过渡为适应于自己的数据集特征和任务的处理环节。模型的预训练和微调的实现方式可参照相应现有技术,本申请不再赘述。
(二)如图7所示,在联动训练机制的第二阶段中,继续利用样本数据对Model1_1进行微调训练,根据样本数据和Model1_1的预测结果,计算Model1_1的第一损失值,第一损失值表示为loss1;同时,将样本数据中的描述文本以及Model1_1预测输出的第一问题和第一答案输入至Model2_1中,Model2_1根据描述文本和第一问题,预测输出第一答案′,根据第一答案和第一答案′,计算Model2_1的第二损失值,第二损失值表示为loss2。
参照图7,第二阶段是以Model2_1为基准,对Model1_1进行参数优化,因此该阶段固化Model1_1的模型参数,利用loss1及其对应的第一权重w1,和loss2及其对应的第二权重w2,计算第一加权损失值,第一加权损失值表示为Loss_1,即有Loss_1=w1*loss1+w2*loss2。然后利用Loss_1对Model1_1进行反馈训练,通过对Model1_1进行参数调试和优化,降低Model1_1的损失,当Model1_1的损失降至阈值之下,即可保存模型参数,进而得到进阶后的问答生成模型,即Model1_2。
其中,w1与w2的和为1,w1和w2取值不限定,在一些实施例中,例如可根据经验预先设置几组{权重1,权重2},并分别利用几组{权重1,权重2}对模型进行调试,选择模型损失最低的一组数据{权重1′,权重2′}作为{w1,w2}。
(三)如图8所示,在联动训练机制的第三阶段中,将样本数据分别输入至Model1_2和Model2_1内继续微调训练,计算Model1_2的第三损失值,第一损失值表示为loss3,以及,计算Model2_1的第四损失值,第四损失值表示为loss4.
参照图8,第三阶段是以Model1_2为基准,对Model2_1进行参数优化,因此该阶段固化Model1_2的模型参数,利用loss3及其对应的第三权重w3,和loss4及其对应的第四权重w4,计算第二加权损失值,第二加权损失值表示为Loss_2,即有Loss_2=w3*loss3+w4*loss4。然后利用Loss_2对Model2_1进行反馈训练,通过对Model2_1进行参数调试和优化,降低Model2_1的损失,当Model2_1的损失降至阈值之下,即可保存模型参数,进而得到进阶后的机器阅读理解模型,即Model2_2。
其中,w3与w4的和为1,w3和w4取值不限定,在一些实施例中,例如可根据经验预先设置几组{权重3,权重4},并分别利用几组{权重3,权重4}对模型进行调试,选择模型损失最低的一组数据{权重3′,权重4′}作为{w3,w4}。
历经前述三个阶段后,最终得到Model1_2和Model2_2,进一步地,利用待测文本数据、Model1_2和Model2_2进行如下的问答预测和校验。
在一些实施例中,如图9的示例,先将待测文本数据输入至Model1_2,Model1_2从待测文本数据中提取并生成目标问题和基准答案;然后将待测文本数据和目标问题一并输入至Model2_2,Model2_2从待测文本数据中查找与目标问题匹配的预测答案;计算Model2_2输出的预测答案的置信度,并判断置信度是否大于或等于预设阈值;若置信度小于预设阈值,说明预测答案的准确性和可靠性较低,则丢弃预测答案,即预测得到的问题和答案不入库;若置信度大于或等于预设阈值,说明预测答案具有一定程度的可信度,则进一步检测预测答案与基准答案是否一致;若预测答案与基准答案不一致,则丢弃预测答案;若预测答案与基准答案一致,则将目标问题和预测答案的匹配对写入问答库对应的存储器内。
也即是说,仅当预测答案的置信度满足预设阈值要求,并且预测答案与基准答案一致时,才会判定预测答案校验成功,允许将目标问题+预测答案写入问答库;若预测答案的置信度低于预设阈值,或者预测答案与基准答案不一致,说明预测答案不可靠,则判定预测答案校验失败,目标问题+预测答案不允许入库,直接丢弃预测答案。
在一些实施例中,统计答案的丢弃率,丢弃率=答案丢弃数/答案总预测数,若丢弃率未超过阈值,则可能属于个别失败案例,例如由于待测文本数据无效、错误等因素导致;若丢弃率高于阈值,则可能是由于Model1_2和Model2_2精度不够导致,则按照前述联动训练机制的第二阶段和第三阶段,对问答生成模型和机器阅读理解模型进行参数校正和优化,提升模型精度。
在一些实施例中,若仅依靠人工对问答库进行维护和数据扩充,可能会导致问答库的知识面覆盖有限、知识更新不及时等情况,体现在问答表象上可能出现智能设备做出错误回答、给出不理解问题的回复等。对此,可以获取网络上的开放世界文本,作为所述待测文本数据的来源,实现利用网络资源扩充问答库。
在一些实施例中,可制定爬虫策略来抓取网络上的信息资源,所述爬虫策略中定义有抓取规则,实现在网络中抓取/过滤符合筛选条件的信息资源,例如热点新闻、时事资讯等。形象地描述,网络爬虫类似于一种探测器,它可以模拟人的行为去各个网站“溜达”,探查网络数据,将符合条件的信息背回来,从而实现数据的自动搜集。网络爬虫是搜索引擎的重要组成部分,网络爬虫选取符合条件的目标URL后,将目标URL加入到爬虫队列中,搜索引擎从爬虫队列中按序提取URL,并将URL对应的网页下载到本地,并存储在指定路径中,所述指定路径例如是预设的已下载网页库。
在一些实施例中,智能设备从所述指定路径中读取网页数据,并从网页数据中提取文本数据,并对文本数据进行预处理,得到所述待测文本数据,然后将待测文本数据存入文本库,以便智能设备在根据Model1_2和Model2_2进行预测及校验时从文本库中调取待测文本数据,实现对问答库的数据扩充。
在一些实施例中,爬虫策略一般设置定时机制,即每间隔预设时长执行一次爬虫动作,因此所述文本库会定时更新。控制器检测到所述文本库产生更新,从所述文本库中获取新入库的待测文本数据,并按照图9示例的流程,将校验成功的问答匹配对存入问答库内,实现对问答库的数据扩充。
在一些实施例中,从爬虫抓取的网页数据中提取文本数据后,对文本数据进行预处理,所述预处理不限于包括敏感词过滤、无效文本清理、数据切分等。其中,敏感词过滤是筛查文本中涉及的敏感词,可直接删除敏感词,或者将敏感词替换为词义相同或相近的非敏感词;无效文本清理是过滤掉无效文本,所述无效文本例如是空文本、乱码文本等对问答库数据扩充无用的文本;数据切分是将长文本切分为若干短文本,比如按照标点符号(例如逗号、句号、分号等)将文本分割成若干个语句,将每个语句存储为一个待测文本数据。文本数据的预处理方式不限于本实施例的示例。
在一些实施例中,由于全网络每时每刻产生的数据量非常庞大,因此可针对性地设置爬虫的抓取目标,例如爬虫主要抓取主流媒体发布的热点新闻和咨询,进而缩减爬虫获取的数据量,避免问答库数据扩充程序占用智能设备过多的处理资源。可根据对文本库的知识扩充要求,例如覆盖的知识层面、侧重的知识领域等,适应性地制定爬虫策略。
在一些实施例中,如图10所示,智能设备底层可包括搜索引擎、预处理模块和用于存储文本库的存储器,搜索引擎中可包括策略制定模块和爬虫模块,所述策略制定模块用于定义及保存第一爬虫策略和第二爬虫策略;所述爬虫模块用于执行:首先利用第一爬虫策略从指定途径获取及整理每时每刻所产生的热搜关键词,所述指定途径不限于微博、百度、热搜榜单等媒体平台;然后利用第二爬虫策略,从网络资源中获取与热搜关键词相关的目标文本数据,具体地可根据热搜关键词从指定的主流媒体和网站中抓取目标文本数据,例如某些实时新闻网站、娱乐新闻网站、微博、百度、今日头条等;所述预处理模块用于对目标文本数据进行预处理,所述预处理不限于数据清洗、数据切分等,然后将预处理后得到的待测文本数据写入文本库中。本实施例中,爬取的文本数据侧重于网络世界中实时的热搜热点,保证文本库内知识的与时俱进和自动化更新。
在一些实施例中,本申请涉及两种类别的数据库,一种是用于存储问题+答案匹配对的问答库,另一种是用于存储待测文本数据的文本库,问答库和文本库内的数据可保存在同一存储器内或者保存在不同的存储器内。
在一些实施例中,利用网络的开放世界文本对问答库进行数据扩充时,智能设备应处于联网状态,智能设备可连接有线网络或WiFi、数据流量(例如3G、4G、5G等)、热点网络等无线网络,以保证爬虫动作的有效执行。
在一些实施例中,若显示设备的网络连接断开,则爬虫动作暂时中断,此时可启动计时,直至检测到网络再次恢复连接时停止计时,检测计时器当前记录的断网时长TS是否超过时间阈值。若断网时长TS超过时间阈值,则表明智能设备断网时间较长,为避免错过网络世界在智能设备断网期间产生的热搜数据,可以查询与[T1,T2]时间范围内的历史热搜关键词匹配的历史目标文本数据,其中T1表示智能设备断网时的时间,T2表示智能设备再次恢复网络连接时的时间,T2=T1+TS。若断网时长TS未超过时间阈值,表明智能设备断网后很快就恢复联网,在此期间网络世界可能尚未更迭热搜关键词,则可无需搜索历史目标文本数据,继续抓取当前实时的热搜关键词及其对应的新目标文本数据。
在前述技术方案中提到了,智能设备在对问答库进行数据扩充时,支持两种扩充模式,一种是人工定期维护,另一种是基于网络的开放世界文本自动扩充,用户可根据问答需求和使用场景,选择或切换问答库的扩充模式。对此,在一些实施例中,智能设备可增设问答设置页面,如图11所示,以智能设备是智能手机为例,智能手机的问答设置页面中包括询问信息111和开关控件112,询问信息111用于询问是否基于网络扩充问答库。在一些应用场景中,用户感兴趣的问答知识领域较为专业,未充分公开于网络世界,需要特定人员进行人工维护和数据扩充,则用户可关闭开关控件112,即启用常规人工维护的扩充模式;若用户是网络达人,经常关注网络世界中的热门资讯,则用户更倾向于开启开关控件112,即启用基于网络的开放世界文本自动扩充问答库的扩充模式。问答设置页面还可包括其他与问答交互有关的设置选项,例如语音设置、声音设置等。
在一些实施例中,智能设备若检测到用户输入开启开关控件112的操作,则进一步检测设备当前的联网状态。若智能设备当前处于网络已连接状态,则执行爬虫动作,从网络世界抓取目标文本数据,经过预处理后存入文本库,然后控制Model1_2和Model2_2从文本库中获取新入库的待测文本数据,进行预测和校验流程;若智能设备当前处于未连接网络状态,则如图12所示,在问答设置页面中向用户提示“设备当前未连接网络,请设置或检查网络连接”,以及显示前往设置控件121,用户触发前往设置控件121,则智能设备的UI跳转至网络设置页面,用户可在网络设置页面中设置网络连接,或检测设备网络连接。
在一些实施例中,图13示例一种智能设备的结构配置,智能设备中至少包括控制器131、存储器132、声音采集器133、声音播放器134和通信器135。控制器131被配置为执行前述应答处理方法;存储器132用于存储问答库内的数据(或者还可用于存储文本库内的数据);声音采集器133用于采集用户的语音信息,包括采集用户输入的问题语句;声音播放器134用于播报答案语句;通信器135用于与服务器连接,以实现利用网络爬虫抓取所需的目标文本数据。该实施例中智能设备仅支持语音问答交互。
在一些实施例中,图14示例第二种智能设备的结构配置,智能设备中至少包括控制器131、存储器132、通信器135和显示器136。控制器131被配置为执行前述应答处理方法;存储器132用于存储问答库内的数据(或者还可用于存储文本库内的数据);通信器135用于与服务器连接,以实现利用网络爬虫抓取所需的目标文本数据;显示器136用于显示用户界面,包括显示问题和答案、前述问答设置页面和网络设置页面等。该实施例中智能设备仅支持UI问答交互。
在一些实施例中,图15示例第三种智能设备的结构配置,智能设备中至少包括控制器131、存储器132、声音采集器133、声音播放器134、通信器135和显示器136。控制器131被配置为执行前述应答处理方法;存储器132用于存储问答库内的数据(或者还可用于存储文本库内的数据);声音采集器133用于采集用户的语音信息,包括采集用户输入的问题语句;声音播放器134用于播放声音,包括播报答案语句;通信器135用于与服务器连接,以实现利用网络爬虫抓取所需的目标文本数据;显示器136用于显示用户界面,包括显示问题和答案、前述问答设置页面和网络设置页面等。用户支持语音问答交互和UI问答交互。
本申请中提供的人机交互及UI显示界面仅仅是示例性的,具体以适配不同类型的智能设备为准,智能设备的结构配置不限于图13~图15的示例。本申请实施例中涉及的预训练模型及其微调、mT5-PEGASUS模型、BERT、基于损失的模型优化训练、置信度计算方法等内容均可参照现有技术,本申请不再一一赘述。基于本申请双模型的联动训练和预测校验机制,答应生成模型和机器阅读理解模型的初始预训练模型架构不限于mT5-PEGASUS&BERT,本领域技术人员可根据实际要求选取适合的预训练模型的类型。在管理文本库时,爬虫策略可灵活设置,通过限定不同的抓取规则,使爬虫反馈满足条件的网络数据,所述条件不限于定时爬虫、网络来源、数据体量等,在入库前对文本数据进行预处理的方式不限于本申请的示例。
在一些实施例中,本申请还提供一种计算机存储介质,该计算机存储介质可存储有程序。当计算机存储介质位于智能设备中时,该程序执行时可包括前述控制器配置的问答处理方法的程序步骤。其中,计算机存储介质可为磁碟、光盘、只读存储记忆体(英文:Read-Only Memory,简称ROM)或随机存储记忆体(英文:Random Access Memory,简称RAM)等。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述示例性的讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释本公开的内容,从而使得本领域技术人员更好的使用所述实施方式。
Claims (10)
1.一种智能设备,其特征在于,包括:
存储器,被配置为存储问答训练后构建的问题与答案的匹配对;
控制器,被配置为执行:
利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练;
将待测文本数据输入所述问答生成模型,生成目标问题和基准答案;
将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案;
对所述预测答案进行校验,若所述预测答案校验成功,将所述目标问题和所述预测答案的匹配对写入与所述机器阅读理解模型关联的所述存储器内。
2.根据权利要求1所述的智能设备,其特征在于,所述控制器被配置按照如下方式执行所述联动训练:
利用所述样本数据对第一预训练模型进行微调,得到初阶的问答生成模型;
利用所述样本数据对第二预训练模型进行微调,得到初阶的机器阅读理解模型;
对初阶的问答生成模型和机器阅读理解模型启动联动训练。
3.根据权利要求2所述的智能设备,其特征在于,所述控制器被配置按照如下方式执行所述联动训练:
先以初阶的机器阅读理解模型为基准,对初阶的问答生成模型进行参数优化,得到进阶的问答生成模型;
然后以所述进阶的问答生成模型为基准,对初阶的机器阅读理解模型进行参数优化,得到进阶的机器阅读理解模型。
4.根据权利要求3所述的智能设备,其特征在于,所述控制器被配置按照如下方式得到进阶的问答生成模型:
利用所述样本数据训练所述初阶的问答生成模型,计算所述初阶的问答生成模型的第一损失值;所述样本数据中包括描述文本、样本问题和样本答案;
将所述描述文本以及所述初阶的问答生成模型输出的第一问题和第一答案输入至所述初阶的机器阅读理解模型,计算所述初阶的机器阅读理解模型的第二损失值;
利用所述第一损失值及其对应的第一权重,所述第二损失值及其对应的第二权重,计算第一加权损失值;
根据所述第一加权损失值对所述初阶的问答生成模型进行参数优化。
5.根据权利要求4所述的智能设备,其特征在于,所述控制器被配置按照如下方式得到进阶的机器阅读理解模型:
将所述样本数据分别输入至所述初阶的机器阅读理解模型和进阶的问答生成模型;
计算所述进阶的问答生成模型的第三损失值,以及,计算所述初阶的机器阅读理解模型的第四损失值;
利用所述第三损失值及其对应的第三权重,所述第四损失值及其对应的第四权重,计算第二加权损失值;
根据所述第二加权损失值对所述初阶的机器阅读理解模型进行参数优化。
6.根据权利要求1所述的智能设备,其特征在于,所述控制器还被配置执行:
利用第一爬虫策略,获取热搜关键词;
利用第二爬虫策略,从网络资源中获取与所述热搜关键词相关的目标文本数据;
对所述目标文本数据进行数据预处理,并保存为所述待测文本数据。
7.根据权利要求3-5任一项所述的智能设备,其特征在于,所述控制器还被配置按照如下方式对所述预测答案进行校验:
计算所述进阶的机器阅读理解模型输出的预测答案的置信度;
若所述置信度大于或等于预设阈值,并且所述预测答案与所述进阶的问答生成模型输出的基准答案一致,则判定所述预测答案校验成功。
8.根据权利要求7所述的智能设备,其特征在于,所述控制器还被配置执行:
若所述置信度小于所述预设阈值,或者,所述预测答案与所述基准答案不一致,则丢弃所述预测答案。
9.根据权利要求1所述的智能设备,其特征在于,所述控制器还被配置执行:
若所述智能设备还包括声音采集器和声音播放器,通过所述声音采集器接收用户语音输入的第一问题,
在所述存储器内查询所述第一问题所属的第一目标匹配对,并控制所述声音播放器播报所述第一目标匹配对中的答案;
和/或,
若所述智能设备还包括显示器,接收用户输入的第二问题,控制所述显示器显示所述第二问题,
在所述存储器内查询所述第二问题所属的第二目标匹配对,并控制所述显示器显示所述第二目标匹配对中的答案。
10.一种问答处理方法,其特征在于,所述方法包括:
利用样本数据,预先对问答生成模型和机器阅读理解模型进行联动训练;
将待测文本数据输入所述问答生成模型,生成目标问题和基准答案;
将所述待测文本数据和所述目标问题输入所述机器阅读理解模型,得到预测答案;
对所述预测答案进行校验,若所述预测答案校验成功,则存储所述目标问题和所述预测答案的匹配对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210262132.6A CN114706963A (zh) | 2022-03-16 | 2022-03-16 | 问答处理方法及智能设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210262132.6A CN114706963A (zh) | 2022-03-16 | 2022-03-16 | 问答处理方法及智能设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114706963A true CN114706963A (zh) | 2022-07-05 |
Family
ID=82168791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210262132.6A Pending CN114706963A (zh) | 2022-03-16 | 2022-03-16 | 问答处理方法及智能设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114706963A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114996434A (zh) * | 2022-08-08 | 2022-09-02 | 深圳前海环融联易信息科技服务有限公司 | 一种信息抽取方法及装置、存储介质、计算机设备 |
CN117312512A (zh) * | 2023-09-25 | 2023-12-29 | 星环信息科技(上海)股份有限公司 | 一种基于大模型的问答方法、装置、电子设备及存储介质 |
CN117556920A (zh) * | 2023-10-23 | 2024-02-13 | 星环信息科技(上海)股份有限公司 | 一种大模型幻觉治理方法、装置、设备及存储介质 |
WO2024041009A1 (zh) * | 2022-08-25 | 2024-02-29 | 华为云计算技术有限公司 | 生成问答对的方法、装置、计算机集群和存储介质 |
-
2022
- 2022-03-16 CN CN202210262132.6A patent/CN114706963A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114996434A (zh) * | 2022-08-08 | 2022-09-02 | 深圳前海环融联易信息科技服务有限公司 | 一种信息抽取方法及装置、存储介质、计算机设备 |
CN114996434B (zh) * | 2022-08-08 | 2022-11-08 | 深圳前海环融联易信息科技服务有限公司 | 一种信息抽取方法及装置、存储介质、计算机设备 |
WO2024041009A1 (zh) * | 2022-08-25 | 2024-02-29 | 华为云计算技术有限公司 | 生成问答对的方法、装置、计算机集群和存储介质 |
CN117312512A (zh) * | 2023-09-25 | 2023-12-29 | 星环信息科技(上海)股份有限公司 | 一种基于大模型的问答方法、装置、电子设备及存储介质 |
CN117556920A (zh) * | 2023-10-23 | 2024-02-13 | 星环信息科技(上海)股份有限公司 | 一种大模型幻觉治理方法、装置、设备及存储介质 |
CN117556920B (zh) * | 2023-10-23 | 2024-05-31 | 星环信息科技(上海)股份有限公司 | 一种大模型幻觉治理方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114706963A (zh) | 问答处理方法及智能设备 | |
US20200301954A1 (en) | Reply information obtaining method and apparatus | |
CN106528845B (zh) | 基于人工智能的检索纠错方法及装置 | |
US11003863B2 (en) | Interactive dialog training and communication system using artificial intelligence | |
CN110364146B (zh) | 语音识别方法、装置、语音识别设备及存储介质 | |
KR20180079391A (ko) | 학습 시스템, 학습 장치, 학습 방법, 학습 프로그램, 교사 데이터 작성 장치, 교사 데이터 작성 방법, 교사 데이터 작성 프로그램, 단말 장치 및 임계치 변경 장치 | |
CN108764480A (zh) | 一种信息处理的系统 | |
CN110472008B (zh) | 智能交互方法以及装置 | |
JP2023182707A (ja) | 深層学習モデルに基づくデータ生成方法、トレーニング方法及び装置 | |
KR20190046062A (ko) | 대화 시스템을 위한 대화 시나리오 데이터베이스 구축 방법 및 장치 | |
CN112883182A (zh) | 一种基于机器阅读的问答匹配方法及装置 | |
CN117709339A (zh) | 一种基于直播间用户行为网络的语言模型增强方法及系统 | |
CN117292688A (zh) | 一种基于智能语音鼠标的控制方法及智能语音鼠标 | |
CN114282549B (zh) | 信息间根因关系的识别方法、装置、电子设备及存储介质 | |
CN112784094B (zh) | 自动音频摘要生成方法和装置 | |
CN114580533A (zh) | 特征提取模型的训练方法、装置、设备、介质及程序产品 | |
CN114329181A (zh) | 一种题目推荐方法、装置及电子设备 | |
CN115687910A (zh) | 一种数据处理方法、装置、计算机设备以及可读存储介质 | |
WO2020151318A1 (zh) | 基于爬虫模型的语料构建方法、装置及计算机设备 | |
CN117786416B (zh) | 一种模型训练方法、装置、设备、存储介质及产品 | |
US20220067301A1 (en) | Conversational flow apparatus and technique | |
KR20190132708A (ko) | 대화 시나리오 의미 패턴 자동 생성에 의한 연속 대화 방법 및 시스템 | |
CN117591698B (zh) | 视频检索模型的训练方法、视频检索方法、装置及设备 | |
RU2798362C2 (ru) | Способ и сервер для обучения нейронной сети формированию текстовой выходной последовательности | |
US20230169276A1 (en) | Switchboard |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |