CN109726276A - 一种基于深度网络学习的任务型对话系统 - Google Patents
一种基于深度网络学习的任务型对话系统 Download PDFInfo
- Publication number
- CN109726276A CN109726276A CN201811642840.2A CN201811642840A CN109726276A CN 109726276 A CN109726276 A CN 109726276A CN 201811642840 A CN201811642840 A CN 201811642840A CN 109726276 A CN109726276 A CN 109726276A
- Authority
- CN
- China
- Prior art keywords
- word
- network
- neural network
- layer
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供的基于深度网络学习的任务型对话系统,提出了两个新的处理流程:单词‑字符级循环网络与神经网络选择。分层混合代码网络超过了其他模型并取得了最先进的性能,无论在每句对话的正确率还是每个完整对话的正确率上。分层混合代码网络能超越混合代码网络主要归功于它在编码句子向量的能力,以及识别未登录词上的优越性。混合代码网络的词袋和平均词向量缺乏词序信息,而这正是单词‑字符级循环网络能做到的。
Description
技术领域
本发明涉及推荐系统领域,更具体地,涉及一种基于深度网络学习的任务型对话系统。
背景技术
面向任务的对话系统是人机交互的全新方式,在诞生之初就广泛受到工业界和学术界的关注。与开放式对话机器人不同,这类系统围绕任务为中心,引导用户并提供必要的信息,而非普通的闲聊。传统方法是将对话任务分解成流水线工作:自然语言理解、对话状态跟踪、对话策略学习和自然语言生成,每一个模块都独立工作。这类模型不仅移植性不好,而且要为不同模块提供标注数据,费时费力。现在更收欢迎的研究,是将对话系统视为一个整体,直接从对话中训练模型,并学习到实际应用的对话策略。这种端到端的对话系统,现在更多是采用神经网络建模。查询降维网络(QRN)是循环神经网络(RNN)的一个变种,它可以有效处理短期和长期的序列依赖,以进行多事实的推理。它把上下文句子看作一系列状态改变触发器,它观察每个时间步的触发器(上下文句子),将原始查询简化为更明智的查询。作为一个纯粹的神经网络,它是现有的在问答系统和对话系统上表现最优秀的模型之一。然而,由于回答是由神经网络生成,并且没能融入人类领域知识,所以还有提高的空间。
混合代码网络是一个尝试将代码和神经网络混合使用的对话系统模型。如图所示,当用户向对话系统进行输入时,这个输入的句子会同时以几种方式进行编码。混合代码网络会在语言处理步骤,使用词袋和平均词向量模型编码句子向量。另外,我们会使用领域知识编写代码,从句子中提取关键实体,并根据数据库的情况,生成一个人工二进制特征向量。句子向量会与人工特征做拼接,传递到循环神经网络中。然后,分类层会根据循环神经网络最后一层的隐藏层输出所有模板的概率分布,我们选择概率最大的模板,在答案生成步骤将模板的实体填充,作为答案返回给用户。此外,这个被采用的模板也会作为特征在下一个时间步提供给循环神经网络。
混合代码网络也有着一些缺点。例如,词袋和平均词向量无法捕获句子中单词的位置信息;混合代码网络所采用的代合和神经网络结合的方式,还可以进一步提高。针对这两点,我们提出了分层的混合代码网络,通过使用分层的循环神经网络结构达到更好的效果。
发明内容
针对现有的混合代码网络推荐系统中词袋和平均词向量无法捕获句子中单词的位置信息与无法识别系统中未录入的单词问题,本发明提出一种基于深度网络学习的任务型对话系统,本发明采用的技术方案是:
一种基于深度网络学习的任务型对话系统,包括语言处理模块、循环神经网络、分类层模块、答案生成模块、领域知识模块和神经网络选择层模块,所述的语言处理模块包括单词-字符级循环网络,领域知识模块包括回答模板;
所述的系统的工作流程如下:
S10.在语言理解过程,使用单词-字符级循环网络(Word-CharacterRNN)编码用户的输入Qt,以及对话系统最后的回答At,分别获取用户最近的输入和系统最后回答所对应的句子向量Oq(t)与Oa(t);编码后,将用户最近输入和系统最后回答所对应的句子向量进行向量拼接,共同作为循环神经网络的输入:
Oq(t)=WordCharacter RNN(Qt)
Oa(t)=WordCharacter RNN(At)
xt=[Oq(t);Oa(t)]
S20.循环神经网络输入步骤S10生成的句子向量拼接xt,循环神经网络通过对句子向量和上一个时间步的对话状态向量ht-1进行矩阵乘法后,得到循环神经网络内部记录的当前时间步的对话状态向量ht并输出,所述的循环神经网络输出的对话状态向量ht将输出到分类层模块和神经网络选择层模块中:
ht=RNN(ht-1,xt)
S30.在分类层模块中,将对话状态向量ht作矩阵运算,获取多个人工定制的回答模板各自的得分;将这些得分分数做e为底的幂运算,再归一化处理作为各个模板的概率分布pt:
pt=softmax(Ws1ht)
S40.神经网络选择层模块接受循环神经网络输出的对话状态向量ht,结合代码和神经网络的能力作选择,输出从数据库搜索推荐目标时各种动作的概率分布pt:
pt=softmax(Ws2ht)
S50.答案生成模块通过给定的概率分布,选出最符合当前语境的回答模板,将S30与S40的概率分布对模板相应的位置进行替换,构建完整的回答,作为对话系统的回答输出。
优选的,所述的单词-字符级循环网络的工作过程包括以下步骤:
S101.系统已录入的单词从预训练的词向量库中获取词向量wi,未录入的单词逐个字符转化为对应的独热码c1,c2,...,ck;
S102.将转化后的独热码输入到单词-字符级循环网络中的字符层中:
ht=CharacterRNN(ht-1,ct)
S103.取单词-字符级循环网络的最后隐藏层hk的线性变换作为该词词向量的表示:
wi=Wchk
S104.将句子中的词向量陆续输入到单词-字符级循环网络中的单词层中:
ht=WordRNN(ht-1,wt)
S105.取单词-字符级循环网络中单词层的最后隐藏层hl作为句子的向量表示。
优选的,所述S40步骤中在数据库搜索推荐目标时,若保持原来的推荐,则提出下一个推荐或返回上一个推荐。
优选的,所述的分类层模块包括密集(Dense)层和软最大(softmax)层。
优选的,所述的S30的具体步骤如下:
首先在Dense层对对话状态向量进行矩阵运算,获取多个回答模板各自的得分;然后,把这些得分分数在softmax层做e为底的幂运算,再归一化处理作为各个回答模板的概率分布。
优选的,本系统使用的数据集为DSTC2。
优选的,所述的模板上的相应位置为占位符。
与现有技术相比,本发明技术方案的有益效果是:
分层混合代码网络具有超过了其他模型的性能,无论在每句对话的正确率还是每个完整对话的正确率上。分层混合代码网络能超越混合代码网络主要归功于它在编码句子向量的能力,以及识别未登录词上的优越性。混合代码网络的词袋和平均词向量缺乏词序信息,而这正是单词-字符级循环网络能做到的。
附图说明
图1为本发明提供的基于深度网络学习的任务型对话系统的流程图。
图2为基于深度网络学习的任务型对话系统的单词-字符级循环网络对句子编码示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,仅用于示例性说明,不能理解为对本专利的限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
图1~2所示,一种基于深度网络学习的任务型对话系统,包括语言处理模块、循环神经网络、分类层模块、答案生成模块、领域知识模块和神经网络选择层模块,所述的语言处理模块包括单词-字符级循环网络,领域知识模块包括回答模板;
所述的系统的工作流程如下:
S10.在语言理解过程,使用单词-字符级循环网络编码用户的输入Qt,以及对话系统最后的回答At,分别获取用户最近的输入和系统最后回答所对应的句子向量Oq(t)与Oa(t);编码后,将用户最近输入和系统最后回答所对应的句子向量进行向量拼接,共同作为循环神经网络的输入:
Oq(t)=WordCharacter RNN(Qt)
Oa(t)=WordCharacter RNN(At)
xt=[Oq(t);Oa(t)]
S20.循环神经网络输入步骤S10生成的句子向量拼接xt,循环神经网络通过对句子向量和上一个时间步的对话状态向量ht-1进行矩阵乘法后,得到循环神经网络内部记录的当前时间步的对话状态向量ht并输出,所述的循环神经网络输出的对话状态向量ht将输出到分类层模块和神经网络选择层模块中:
ht=RNN(ht-1,xt)
S30.在分类层模块中,首先在Dense层对对话状态向量ht进行矩阵运算,获取多个回答模板各自的得分;然后,把这些得分分数在softmax层做e为底的幂运算,再归一化处理作为各个模板的概率分布pt:
pt=softmax(Ws1ht)
S40.神经网络选择层模块接受循环神经网络输出的对话状态向量ht,结合代码和神经网络的能力作选择,输出从数据库搜索推荐目标时各种动作的概率分布pt:
pt=softmax(Ws2ht)
S50.答案生成模块通过给定的概率分布,选出最符合当前语境的回答模板,将S30与S40的概率分布对模板相应的位置进行替换,构建完整的回答,作为对话系统的回答输出。
在步骤S40中,在数据库搜索推荐目标时,如保持原来的推荐,提出下一个推荐或返回上一个推荐,
其中,所述的S10中单词-字符级循环网络的工作过程包括以下步骤:
S101.系统已录入的单词从预训练的词向量库中获取词向量wi,未录入的单词逐个字符转化为对应的独热码c1,c2,...,ck;
S102.将转化后的独热码输入到单词-字符级循环网络中的字符层中:
ht=CharacterRNN(ht-1,ct)
S103.取单词-字符级循环网络的最后隐藏层hk的线性变换作为该词词向量的表示:
wi=Wchk
S104.将句子中的词向量陆续输入到单词-字符级循环网络中的单词层中:
ht=WordRNN(ht-1,wt)
S105.取单词-字符级循环网络中单词层的最后隐藏层hl作为句子的向量表示。
优选的,本系统使用的数据集为DSTC2。
优选的,所述的模板上的相应位置为占位符。
实施例2
本实施例为单词-字符级循环网络的具体实施例,如图2所示,当遇到一些word2vec中没有的词,例如专有名词,或者用户的输入的错别字。这时就无法使用word2vec获取对应的词向量。为了解决这些问题,我们引入了一个字符级别的循环神经网络去编码未见过的单词。
在图中可以看到这个技术的详细图解。如“for vietnamese food?”这句话的编码,for和food可以直接在word2vec中找到,取出其中的词向量;但是vietnamese是一个没见过的单词,所以则将它逐个字符转化为对应的独热码,输入到字符级别的循环神经网络中,再取该循环神经网络的最后隐藏层作为该词词向量的表示。
实施例3
在本实施例中将描述如何将代码和神经网络进行结合,进行神经网络选择,以及如何将领域知识引入到分层混合代码网络中。领域知识的应用主要在这几方面:关键实体识别、行为模板总结和数据库对象推荐。
以表格1中的数据集为例,该任务中有四种实体:菜式、未登录菜式、位置和价位。我们使用一个简单的字符串匹配从用户输入中找出相应的实体,然后就可以用二进制向量表示实体的出现与否。然后,我们从训练集中总结出对话系统用于回答的模板,例如“pipasha restaurant is anice place in the east oftown and the prices areexpensive”可以被抽象为“<restaurant>is a nice place in the<location>of townand the pricesare<price>”。这样我们一共总结出77个模板。
训练/验证/测试对话数 | 1735/500/1000 |
平均对话长度 | 9.2 |
人工回答模板 | 77 |
地点/菜式/价格 | 5/77/3 |
表格1.数据集统计信息
在餐厅推荐方面,我们使用了代码和神经网络相结合的方式。我们首先知道,在同样要求的情况下,优先推荐高分的餐厅会比较好。所以我们使用编写了将特定条件餐厅按分数排序的代码,因为用户可能会否决推荐,我们让神经网络来决定该继续保留当前推荐,还是提出下一个推荐,还是回到上一个推荐。这个选择由分类层的神经网络来输出概率分布。
在表格2里,我们给出人工特征的组成。
特征 | 数量 |
对话历史中每种实体的出现与否 | 4 |
当前对话中每种实体的出现与否 | 4 |
是否已经查询数据库 | 1 |
数据库有可推荐候选 | 1 |
数据库无可推荐候选 | 1 |
是否已推荐 | 1 |
是否数据库所有目标都已推荐 | 1 |
是否还有可推荐目标 | 1 |
当前的请求是否在训练集中无可推荐目标 | 1 |
总人工特征数 | 15 |
表格2.人工特征详情
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于深度网络学习的任务型对话系统,其特征在于,包括语言处理模块、循环神经网络、分类层模块、答案生成模块、领域知识模块和神经网络选择层模块,所述的语言处理模块包括单词-字符级循环网络,领域知识模块包括人工定制的回答模板;
所述的系统工作流程如下步骤:
S10.在语言理解过程,使用单词-字符级循环网络,即Word-CharacterRNN编码用户的输入Qt,以及对话系统最后的回答At,分别获取用户最近的输入和系统最后回答所对应的句子向量Oq(t)与Oa(t);编码后,将用户最近输入和系统最后回答所对应的句子向量进行向量拼接,共同作为循环神经网络的输入:
Oq(t)=WordCharacter RNN(Qt)
Oa(t)=WordCharacter RNN(At)
xt=[Oq(t);Oa(t)]
S20.循环神经网络输入步骤S10生成的句子向量拼接xt,循环神经网络通过对句子向量和上一个时间步的对话状态向量ht-1进行矩阵乘法后,得到循环神经网络内部记录的当前时间步的对话状态向量ht并输出,所述的循环神经网络输出的对话状态向量ht将输出到分类层模块和神经网络选择层模块中:
ht=RNN(ht-1,xt)
S30.在分类层模块中,将对话状态向量ht作矩阵运算,获取多个人工定制的回答模板各自的得分;将这些得分分数做e为底的幂运算,再归一化处理作为各个模板的概率分布pt:
pt=softmax(Ws1ht)
S40.神经网络选择层模块接受循环神经网络输出的对话状态向量ht,结合代码和神经网络的能力作选择,输出从数据库搜索推荐目标时各种动作的概率分布pt:
pt=softmax(Ws2ht)
S50.答案生成模块通过给定的概率分布,选出最符合当前语境的回答模板,将S30与S40的概率分布对模板相应的位置进行替换,构建完整的回答,作为对话系统的回答输出。
2.根据权利要求1所述的基于深度网络学习的任务型对话系统,其特征在于,所述的单词-字符级循环网络(Word-CharacterRNN)的工作过程包括以下步骤:
S101.系统已录入的单词从预训练的词向量库中获取词向量wi,未录入的单词逐个字符转化为对应的独热码c1,c2,...,ck;
S102.将转化后的独热码输入到单词-字符级循环网络中的字符层中:
ht=CharacterRNN(ht-1,ct)
S103.取单词-字符级循环网络的最后隐藏层hk的线性变换作为该词词向量的表示:
wi=Wchk
S104.将句子中的词向量陆续输入到单词-字符级循环网络中的单词层中:
ht=WordRNN(ht-1,wt)
S105.取单词-字符级循环网络中单词层的最后隐藏层hl作为句子的向量表示。
3.根据权利要求1所述的基于深度网络学习的任务型对话系统,其特征在于,所述S40步骤中在数据库搜索推荐目标时,若保持原来的推荐,则提出下一个推荐或返回上一个推荐。
4.根据权利要求1所述的基于深度网络学习的任务型对话系统,其特征在于,所述的分类层模块包括密集层和软最大层。
5.根据权利要求1或4所述的基于深度网络学习的任务型对话系统,其特征在于,所述的S30的具体步骤如下:
首先在密集层对对话状态向量进行矩阵运算,获取多个回答模板各自的得分;然后,把这些得分分数在软最大层做e为底的幂运算,再归一化处理作为各个回答模板的概率分布。
6.根据权利要求1所述的基于深度网络学习的任务型对话系统,其特征在于,本系统使用的数据集为DSTC2。
7.根据权利要求1所述的基于深度网络学习的任务型对话系统,其特征在于,所述的模板上的相应位置为占位符。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811642840.2A CN109726276A (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度网络学习的任务型对话系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811642840.2A CN109726276A (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度网络学习的任务型对话系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109726276A true CN109726276A (zh) | 2019-05-07 |
Family
ID=66299405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811642840.2A Pending CN109726276A (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度网络学习的任务型对话系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109726276A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196976A (zh) * | 2019-05-10 | 2019-09-03 | 新华三大数据技术有限公司 | 文本的情感倾向分类方法、装置和服务器 |
CN110232117A (zh) * | 2019-06-13 | 2019-09-13 | 北京百度网讯科技有限公司 | 句子流畅度检测方法、装置以及终端 |
CN110866103A (zh) * | 2019-11-08 | 2020-03-06 | 中山大学 | 一种对话系统中的句子多样性生成方法及系统 |
CN111143522A (zh) * | 2019-11-29 | 2020-05-12 | 华东师范大学 | 一种端到端的任务型对话系统的领域适应方法 |
CN112989177A (zh) * | 2019-12-12 | 2021-06-18 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、电子设备及计算机存储介质 |
CN113254616A (zh) * | 2021-06-07 | 2021-08-13 | 佰聆数据股份有限公司 | 面向智能问答系统的句向量生成方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350655A1 (en) * | 2015-05-26 | 2016-12-01 | Evature Technologies (2009) Ltd. | Systems Methods Circuits and Associated Computer Executable Code for Deep Learning Based Natural Language Understanding |
CN107748757A (zh) * | 2017-09-21 | 2018-03-02 | 北京航空航天大学 | 一种基于知识图谱的问答方法 |
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
-
2018
- 2018-12-29 CN CN201811642840.2A patent/CN109726276A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350655A1 (en) * | 2015-05-26 | 2016-12-01 | Evature Technologies (2009) Ltd. | Systems Methods Circuits and Associated Computer Executable Code for Deep Learning Based Natural Language Understanding |
CN107748757A (zh) * | 2017-09-21 | 2018-03-02 | 北京航空航天大学 | 一种基于知识图谱的问答方法 |
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
Non-Patent Citations (1)
Title |
---|
WEIRI LIANG 等: "Hierarchical Hybrid Code Networks for Task-Oriented Dialogue", 《INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196976A (zh) * | 2019-05-10 | 2019-09-03 | 新华三大数据技术有限公司 | 文本的情感倾向分类方法、装置和服务器 |
CN110232117A (zh) * | 2019-06-13 | 2019-09-13 | 北京百度网讯科技有限公司 | 句子流畅度检测方法、装置以及终端 |
CN110232117B (zh) * | 2019-06-13 | 2021-07-16 | 北京百度网讯科技有限公司 | 句子流畅度检测方法、装置以及终端 |
CN110866103A (zh) * | 2019-11-08 | 2020-03-06 | 中山大学 | 一种对话系统中的句子多样性生成方法及系统 |
CN110866103B (zh) * | 2019-11-08 | 2023-07-07 | 中山大学 | 一种对话系统中的句子多样性生成方法及系统 |
CN111143522A (zh) * | 2019-11-29 | 2020-05-12 | 华东师范大学 | 一种端到端的任务型对话系统的领域适应方法 |
CN111143522B (zh) * | 2019-11-29 | 2023-08-01 | 华东师范大学 | 一种端到端的任务型对话系统的领域适应方法 |
CN112989177A (zh) * | 2019-12-12 | 2021-06-18 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、电子设备及计算机存储介质 |
CN112989177B (zh) * | 2019-12-12 | 2024-05-03 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、电子设备及计算机存储介质 |
CN113254616A (zh) * | 2021-06-07 | 2021-08-13 | 佰聆数据股份有限公司 | 面向智能问答系统的句向量生成方法及系统 |
CN113254616B (zh) * | 2021-06-07 | 2021-10-19 | 佰聆数据股份有限公司 | 面向智能问答系统的句向量生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726276A (zh) | 一种基于深度网络学习的任务型对话系统 | |
CN110188331A (zh) | 模型训练方法、对话系统评价方法、装置、设备及存储介质 | |
US20220398486A1 (en) | Learning content recommendation system based on artificial intelligence learning and operating method thereof | |
CN110008322A (zh) | 多轮对话场景下的话术推荐方法和装置 | |
CN107562863A (zh) | 聊天机器人回复自动生成方法及系统 | |
CN104598611B (zh) | 对搜索条目进行排序的方法及系统 | |
Huang et al. | An integrated computational intelligence approach to product concept generation and evaluation | |
CN109271496B (zh) | 一种基于文本、知识库及序列到序列的自然问答方法 | |
CN111506835B (zh) | 一种融合用户时间特征和个性特征的数据特征提取方法 | |
CN110032630A (zh) | 话术推荐设备、方法及模型训练设备 | |
Wang et al. | Policy learning for domain selection in an extensible multi-domain spoken dialogue system | |
CN109063164A (zh) | 一种基于深度学习的智能问答方法 | |
CN111737486B (zh) | 基于知识图谱、深度学习的人岗匹配方法、存储装置 | |
CN110232113B (zh) | 一种提高知识库问答准确度的方法及系统 | |
CN110427625A (zh) | 语句补全方法、装置、介质及对话处理系统 | |
CN112434517A (zh) | 一种结合主动学习的社区问答网站答案排序方法及系统 | |
CN110309170A (zh) | 一种任务型多轮对话中的复杂意图识别方法 | |
CN111400461A (zh) | 智能客服问题匹配方法及装置 | |
CN115510814A (zh) | 一种基于双重规划的篇章级复杂问题生成方法 | |
CN115062070A (zh) | 一种基于问答的文本表格数据查询方法 | |
CN108388944A (zh) | Lstm神经网络芯片及其使用方法 | |
CN117035074B (zh) | 基于反馈强化的多模态知识生成方法及装置 | |
CN116701566A (zh) | 一种基于情感的多轮对话模型及对话方法 | |
KR20210152979A (ko) | 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법 | |
CN112380332A (zh) | 交互式的知识反馈方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190507 |