CN110175228A - 基于基础模块和机器学习的循环嵌入对话训练方法及系统 - Google Patents

基于基础模块和机器学习的循环嵌入对话训练方法及系统 Download PDF

Info

Publication number
CN110175228A
CN110175228A CN201910447459.9A CN201910447459A CN110175228A CN 110175228 A CN110175228 A CN 110175228A CN 201910447459 A CN201910447459 A CN 201910447459A CN 110175228 A CN110175228 A CN 110175228A
Authority
CN
China
Prior art keywords
module
entity
machine learning
slot position
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910447459.9A
Other languages
English (en)
Other versions
CN110175228B (zh
Inventor
缪刘俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Courtesy Education Technology Co Ltd
Original Assignee
Suzhou Courtesy Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Courtesy Education Technology Co Ltd filed Critical Suzhou Courtesy Education Technology Co Ltd
Priority to CN201910447459.9A priority Critical patent/CN110175228B/zh
Publication of CN110175228A publication Critical patent/CN110175228A/zh
Application granted granted Critical
Publication of CN110175228B publication Critical patent/CN110175228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于基础模块和机器学习的循环嵌入对话训练方法,属于人工智能领域,包括S1:提取用户对话输入中的实体与意图;S2:将实体与意图循环生成相关对话任务完整槽位;S3:将用户输入的实体、意图、槽位、系统回复表征化;S4:生成能够被机器学习模型处理的分数;S5:引入带有对话时间阶段的注意力机制,将分数通过类神经网络进行逻辑回归生成相关分类;S6:将用户端和服务器端生成的分类与用户端和服务器端的记忆内容与槽位给予不同权重,输入长短端记忆网络分类器中;S7:通过长短端记忆网络分类器计算与目标系统回复的相似度,排序返回超过阈值的相关策略回应。

Description

基于基础模块和机器学习的循环嵌入对话训练方法及系统
技术领域
本发明属于人工智能领域,涉及一种基于基础模块和机器学习的循环嵌入对话训练方法及系统。
背景技术
目前针对中文自然语言处理,例如文本标注、实体识别、意图识别,主要是基于规则的理性主义方法,该方法往往需要语言学家,语音学家和各类专家配合工作,进行大量的知识密集研究工作,工作强度很大,然而语言模型却相当的脆弱,鲁棒性较差,如果存在与语言模型稍微偏离的错误,往往会使得整个的语言模型无法正常地工作,甚至导致严重的后果。同时,该方法还需要海量的语言语音语料数据,这部分数据如果全部用人力标注的方法,来制作训练数据、并进行标注于识别,人力成本和时间成本巨大。
现有聊天机器人对话策略分为生成式与模块式。生成式最早为用于机器翻译任务中的Encoder-Decoder模型,进而变为克服了原有RNN无法完成端到端映射缺陷的seq2seq。2016年斯坦福大学和微软研究院发布的基于个性的神经网络聊天机器人模型,目前最新的使用对抗生成的思想训练生成的对话模型,以及尝试解决开放领域的回复生成问题并长对话的对话模型。这种编解码端到端的深度学习系统,采用纯粹数据驱动的模型实现,典型产品包括微软小冰。缺点为对训练数据规模以及质量要求高,生成回答是否符合相关政策法规要求,高频率重复生成无意义的安全回答,对话机器人个性设定不一致,多轮对话的上下文连续性问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于基础模块和机器学习的循环嵌入对话训练方法及系统,对于召回精度要求高的教学任务对话模型,使用模块式对话策略。本发明基于Hybrid Code Networks(HCN)的思想,数据库中有事先编写好的固定数量的系统回复,当用户输入进来,使用监督学习方式返回最适合的系统回复,在每个对话轮回,对话阶段的向量与所有系统回复的句向量对比相似度,返回相似度最大的系统回复。
为达到上述目的,本发明提供如下技术方案:
一方面,本发明提供一种基于基础模块和机器学习的循环嵌入对话训练方法,包括以下步骤:
S1:通过自然语言理解模块NLU提取用户对话输入中的实体与意图;
S2:将实体与意图循环经由对话状态跟踪模块DST生成相关对话任务完整槽位;
S3:将用户输入的实体、意图、完整槽位以及系统回复使用相关自然语言处理技术表征化;
S4:将表征化向量放入循环神经网络RNN词嵌入以生成能够被机器学习模型处理的分数;
S5:引入带有对话时间阶段的注意力机制,将分数在用户端和服务器端分别与用户记忆内容和服务器记忆内容,通过类神经网络进行逻辑回归生成相关分类;
S6:将用户端和服务器端生成的分类与用户端和服务器端的记忆内容与槽位给予不同权重,输入长短端记忆网络LSTM分类器中;
S7:通过长短端记忆网络LSTM分类器计算与目标系统回复的相似度,排序返回超过阈值的相关策略回应。
进一步,步骤S5中所述用户端记忆内容和服务器端记忆内容是对话当中用户和服务器在不同轮数的对话状态的词嵌入,其中包含意图,实体和槽位状态,通过学习这些时间嵌入对话的注意力载体,系统能够学会忽视或处理不合作的行为。
进一步,步骤S7中,通过标准的机器学习错误或损失最小化的拟合过程,在系统预定义的所有可能回复中找到最适合的回复,将所有系统回复词嵌入与输入最终生成的词嵌入按相似度进行排序,损失公式为:
Lt=max(μ+-sim(a,b+),0)+max(μ-+maxb-(sim(a,b-)),0)
其中a为某轮对话词嵌入b+为目标系统回应词嵌入,b-为错误系统回应词嵌入。
另一方面,本发明提供一种基于基础模块和机器学习的循环嵌入对话训练系统,包括输入输出模块,包括输入输出模块,自然语言理解模块NLU,对话状态追踪模块DST,对话策略学习模块DPL,自然语言生成模块NLG;
其中所述自然语言理解模块用于提取用户对话输入中的实体与意图;
所述对话状态追踪模块用于将实体与意图生成相关对话任务完整槽位;
所述对话策略学习模块用于对实体、意图和槽位进行处理和学习,获得合适的对话回应策略;
所述自然语言生成模块用于将回应策略转换生成为自然语言,从而对用户进行回复。
进一步,所述对话策略学习模块包括服务器端和用户端、输入输出模块、循环神经网络、长短端记忆网络分类器,所述服务器端和用户端为对话状态的记忆,即当前对话在预先定义的故事当中所处的状态,所述输入输出模块用于实体、意图和完整槽位的输入以及目标系统回复的输出,所述循环神经网络用于生成能够被机器学习模型处理的分数,所述长短端记忆网络分类器用于计算与目标系统回复的相似度。
本发明的有益效果在于:1、本发明解决了多轮对话的上下文一致性问题,循环检验阶段确保相关对话任务生成完整槽位,确保用户能够完成诸如询问天气,预定餐厅等任务,得到策略生成回应;在策略学习中用户端以及服务器的记忆内容作为输入影响实体与意图的表征化和槽位生成的分数,同时作为长短端记忆网络输入影响最终生成的向量。
2、本发明解决了用户不配合对话应对问题,在策略学习中无意义不配合对话大概率经过注意力机制形成与循环神经网络逻辑回归后成为极值分布数据,最终无法生成既有对话路径的回复;在经过最终长短端记忆网络分类器后大概率与系统正常回复的相似度无法达到阙值,系统因此会选择兜底回复。
3、本发明解决了基础教育模块领域泛化问题,相同学科的课程教学的流程逻辑大多相似。以英语学习为例,课程先进行课文朗读,然后将课文中为学习词汇选出进行解释,将文章部分相关语句挑出进行语法学习分析,最后给出造句语法选择题等练习。对话追踪模块确保不同课程阶段的相关要求达到后才可进入下一阶段。使用一定数据生成对话策略后可确定其他相似课程对话流程。
本发明相对于目前传统LSTM分类器增加了对话轮数,提高了对话质量,进而提高了人机交互的质量与效率。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所述基于基础模块和机器学习的循环嵌入对话训练方法流程示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
一方面,如图1所示,本发明提供一种基于基础模块和机器学习的循环嵌入对话训练方法,包括以下步骤:
S1:通过自然语言理解模块NLU提取用户对话输入中的实体与意图;
S2:将实体与意图循环经由对话状态跟踪模块DST生成相关对话任务完整槽位;
其中实体可以是人名,地名,组织名等具有实际意义的词语或句子;
意图为用户本轮输入对话的意图,比如闲聊,回复答案,回复选课槽位:科目,语法完形填空;
槽位为任务导向对话中返回用户需要信息前所需要用户输入的信息,比如选课系统中槽位为科目,年级,第几课;
槽位与实体,意图三者相互独立,都是必需的输入。
S3:将用户输入的实体、意图、完整槽位以及系统回复使用相关自然语言处理技术表征化;
S4:将表征化向量放入循环神经网络RNN词嵌入以生成能够被机器学习模型处理的分数;
比如在选课任务中需要用户输入的槽位为科目,年级,第几课。
用户输入:我想听个课;
意图为选课(intent:search_lesson);
目标系统回应:询问科目(action:action_ask_subject);
槽位:二元向量,当下为[0,0,0];
实体:当下无;
将这些通过自然语言处理(NLP)技术由文字变为向量(最简单方式为词袋模型),这个过程称为表征化。
S5:引入带有对话时间阶段的注意力机制,将分数在用户端和服务器端分别与用户记忆内容和服务器记忆内容,通过类神经网络进行逻辑回归生成相关分类;
其中带有对话时间阶段的注意力机制与外部记忆一起工作,以加快学习,处理用户不配合既有对话问题。本发明是通过有两组单词的字符串来训练的,这些字符串被编码为矢量表示,并通过最小化向量来训练产生字符串解码系统由编码解码器模型和目标序列生成的表示。但是,这些系统不能很好地概括新数据,也不能很好地存储内存。通过使用外部内存单元,,模型可以存储带有内存的数据,使系统能够学习。这对于处理用户不配合既有对话问题非常有用,因为它可以学习处理用户不配合行为的模式和功能,如插槽未被填充,或与系统目标无关的意图。这些处理它们的不确定行为和模式可以存储在内存中,产生一个注意力向量。注意力向量和记忆单元读写是由带有对话阶段的注意力机制控制的。
S6:将用户端和服务器端生成的分类与用户端和服务器端的记忆内容与槽位给予不同权重,输入长短端记忆网络LSTM分类器中;
S7:通过长短端记忆网络LSTM分类器计算与目标系统回复的相似度,排序返回超过阈值的相关策略回应。
可选地,步骤S5中所述用户端记忆内容和服务器端记忆内容是对话当中用户和服务器在不同轮数的对话状态的词嵌入,其中包含意图,实体和槽位状态,通过学习这些时间嵌入对话的注意力载体,系统能够学会忽视或处理不合作的行为。
服务器端记忆内容为系统历史回复内容,用户记忆内容为用户历史输入内容,都是复杂向量。通过对RNN输入一组丰富的特征向量,,神经网络可以学习处理复杂的行为和反应,如槽位填充、实体识别、意图识别和api调用。这些特征与对话论述相关的(输入中的系统和用户记忆内容),并通过注意机制产生一个向量,以处理用户不配合行为。
通过从用户输入中组合RNN单元的输出,以及用户的注意力以及系统的注意力,生成对话状态嵌入。这种对话状态嵌入拟合预先定义的对话故事中的目标系统回复嵌入,以此训练出神经网络。
步骤S7中长短端记忆网络LSTM分类器还包括长短端记忆网络状态,长短端记忆网络状态表示将系统注意力机制生成向量、用户注意力机制生成向量、用户意图和用户插槽嵌入相结合的对话状态的当前词嵌入。
可选地,步骤S7中,通过标准的机器学习错误或损失最小化的拟合过程,在系统预定义的所有可能回复中找到最适合的回复,将所有系统回复词嵌入与输入最终生成的词嵌入按相似度进行排序,损失公式为:
Lt=max(μ+-sim(a,b+),0)+max(μ-+maxb-(sim(a,b-)),0)
其中a为某轮对话词嵌入b+为目标系统回应词嵌入,b-为错误系统回应词嵌入。
另一方面,本发明提供一种基于基础模块和机器学习的循环嵌入对话训练系统,包括输入输出模块,包括输入输出模块,自然语言理解模块NLU,对话状态追踪模块DST,对话策略学习模块DPL,自然语言生成模块NLG;
其中所述自然语言理解模块用于提取用户对话输入中的实体与意图;
所述对话状态追踪模块用于将实体与意图生成相关对话任务完整槽位;
所述对话策略学习模块用于对实体、意图和槽位进行处理和学习,获得合适的对话回应策略;
所述自然语言生成模块用于将回应策略转换生成为自然语言,从而对用户进行回复。
可选地,所述对话策略学习模块包括服务器端和用户端、输入输出模块、循环神经网络、长短端记忆网络分类器,所述服务器端和用户端为对话状态的记忆,所述输入输出模块用于实体、意图和完整槽位的输入以及目标系统回复的输出,所述循环神经网络用于生成能够被机器学习模型处理的分数,所述长短端记忆网络分类器用于计算与目标系统回复的相似度。
本发明解决了多轮对话的上下文一致性问题,循环检验阶段确保相关对话任务生成完整槽位,确保用户能够完成诸如询问天气,预定餐厅等任务,得到策略生成回应;在策略学习中用户端以及服务器的记忆内容作为输入影响实体与意图的表征化和槽位生成的分数,同时作为长短端记忆网络输入影响最终生成的向量。
本发明解决了用户不配合对话应对问题,在策略学习中无意义不配合对话大概率经过注意力机制形成与循环神经网络逻辑回归后成为极值分布数据,最终无法生成既有对话路径的回复;在经过最终长短端记忆网络分类器后大概率与系统正常回复的相似度无法达到阙值,系统因此会选择兜底回复。
本发明解决了基础教育模块领域泛化问题,相同学科的课程教学的流程逻辑大多相似。以英语学习为例,课程先进行课文朗读,然后将课文中为学习词汇选出进行解释,将文章部分相关语句挑出进行语法学习分析,最后给出造句语法选择题等练习。对话追踪模块确保不同课程阶段的相关要求达到后才可进入下一阶段。使用一定数据生成对话策略后可确定其他相似课程对话流程。
本发明对社会而言,3-6岁的基础课程教育可由传统的一对多的教室单方面教授转为一对一的人与本系统的交互,大大提高了教育效率。在与本系统的对话过程中学生可更快的得到反馈,进而修改错误,提高了教育质量。
本发明在教育方面,使用的标准化的教材,确保了教育的最低要求。本系统搭载情感陪伴,心理疏导相关模块,可以对部分老师无暇顾及的学生心理问题进行一定程度的解决。
本发明在经济方面,学校与教育机构可通过本发明所述基于基础模块和机器学习的循环嵌入对话训练系统为教师讲师提供辅助教育工作。部分情况下可起到取代教师的作用,为学校与教育机构减少成本。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于基础模块和机器学习的循环嵌入对话训练方法,其特征在于:包括以下步骤:
S1:通过自然语言理解模块提取用户对话输入中的实体与意图;
S2:将实体与意图循环经由对话状态跟踪模块生成相关对话任务完整槽位;
S3:将用户输入的实体、意图、完整槽位以及系统回复使用相关自然语言处理技术表征化;
S4:将表征化向量放入循环神经网络词嵌入以生成能够被机器学习模型处理的分数;
S5:引入带有对话时间阶段的注意力机制,将分数在用户端和服务器端分别与用户记忆内容和服务器记忆内容,通过类神经网络进行逻辑回归生成相关分类;
S6:将用户端和服务器端生成的分类与用户端和服务器端的记忆内容与槽位给予不同权重,输入长短端记忆网络分类器中;
S7:通过长短端记忆网络分类器计算与目标系统回复的相似度,排序返回超过阈值的相关策略回应。
2.根据权利要求1所述的基于基础模块和机器学习的循环嵌入对话训练方法,其特征在于:步骤S5中所述用户端记忆内容和服务器端记忆内容是对话当中用户和服务器在不同轮数的对话状态的词嵌入,其中包含意图,实体和槽位状态,通过学习这些时间嵌入对话的注意力载体,系统能够学会忽视或处理不合作的行为。
3.根据权利要求1所述的基于基础模块和机器学习的循环嵌入对话训练方法,其特征在于:步骤S7中,通过标准的机器学习错误或损失最小化的拟合过程,在系统预定义的所有可能回复中找到最适合的回复,将所有系统回复词嵌入与输入最终生成的词嵌入按相似度进行排序,损失公式为:
Lt=max(μ+-sim(a,b+),0)+max(μ-+maxb-(sim(a,b-)),0)
其中a为某轮对话词嵌入b+为目标系统回应词嵌入,b-为错误系统回应词嵌入。
4.一种基于基础模块和机器学习的循环嵌入对话训练系统,其特征在于:包括输入输出模块,包括输入输出模块,自然语言理解模块,对话状态追踪模块,对话策略学习模块,自然语言生成模块;
其中所述自然语言理解模块用于提取用户对话输入中的实体与意图;
所述对话状态追踪模块用于将实体与意图生成相关对话任务完整槽位;
所述对话策略学习模块用于对实体、意图和槽位进行处理和学习,获得合适的对话回应策略;
所述自然语言生成模块用于将回应策略转换生成为自然语言,从而对用户进行回复。
5.根据权利要求4所述的基于基础模块和机器学习的循环嵌入对话训练系统,其特征在于:所述对话策略学习模块包括服务器端和用户端、输入输出模块、循环神经网络、长短端记忆网络分类器,所述服务器端和用户端为对话状态的记忆,即当前对话在预先定义的故事当中所处的状态,所述输入输出模块用于实体、意图和完整槽位的输入以及目标系统回复的输出,所述循环神经网络用于生成能够被机器学习模型处理的分数,所述长短端记忆网络分类器用于计算与目标系统回复的相似度。
CN201910447459.9A 2019-05-27 2019-05-27 基于基础模块和机器学习的循环嵌入对话训练方法及系统 Active CN110175228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910447459.9A CN110175228B (zh) 2019-05-27 2019-05-27 基于基础模块和机器学习的循环嵌入对话训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910447459.9A CN110175228B (zh) 2019-05-27 2019-05-27 基于基础模块和机器学习的循环嵌入对话训练方法及系统

Publications (2)

Publication Number Publication Date
CN110175228A true CN110175228A (zh) 2019-08-27
CN110175228B CN110175228B (zh) 2023-08-15

Family

ID=67696233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910447459.9A Active CN110175228B (zh) 2019-05-27 2019-05-27 基于基础模块和机器学习的循环嵌入对话训练方法及系统

Country Status (1)

Country Link
CN (1) CN110175228B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610627A (zh) * 2019-09-29 2019-12-24 苏州思必驰信息科技有限公司 启发式诗词学习方法及装置
CN111143561A (zh) * 2019-12-26 2020-05-12 北京百度网讯科技有限公司 意图识别模型训练方法、装置及电子设备
CN111858888A (zh) * 2020-07-13 2020-10-30 北京航空航天大学 一种值机场景的多轮对话系统
CN113409631A (zh) * 2021-06-18 2021-09-17 上海锡鼎智能科技有限公司 Ai辅助教学机器人
CN113672711A (zh) * 2021-08-09 2021-11-19 之江实验室 一种服务型机器人意图识别装置及其训练、识别方法
WO2022083094A1 (zh) * 2020-10-23 2022-04-28 平安科技(深圳)有限公司 文本语义识别方法、装置、电子设备及存储介质
CN117827014A (zh) * 2024-03-05 2024-04-05 四川物通科技有限公司 一种基于元宇宙的数字孪生模型多人交互协作系统
CN117827014B (zh) * 2024-03-05 2024-06-04 四川物通科技有限公司 一种基于元宇宙的数字孪生模型多人交互协作系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180233143A1 (en) * 2017-02-13 2018-08-16 Kabushiki Kaisha Toshiba Dialogue system, a dialogue method and a method of adapting a dialogue system
CN108415923A (zh) * 2017-10-18 2018-08-17 北京邮电大学 封闭域的智能人机对话系统
CN108829667A (zh) * 2018-05-28 2018-11-16 南京柯基数据科技有限公司 一种基于记忆网络的多轮对话下的意图识别方法
CN109241250A (zh) * 2018-07-25 2019-01-18 南京瓦尔基里网络科技有限公司 一种策略规则对话推进以及意向判别方法及系统
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109686360A (zh) * 2019-01-08 2019-04-26 哈尔滨理工大学 一种语音订餐机器人
CN109726387A (zh) * 2017-10-31 2019-05-07 科沃斯商用机器人有限公司 人机交互方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180233143A1 (en) * 2017-02-13 2018-08-16 Kabushiki Kaisha Toshiba Dialogue system, a dialogue method and a method of adapting a dialogue system
CN108415923A (zh) * 2017-10-18 2018-08-17 北京邮电大学 封闭域的智能人机对话系统
CN109726387A (zh) * 2017-10-31 2019-05-07 科沃斯商用机器人有限公司 人机交互方法和系统
CN108829667A (zh) * 2018-05-28 2018-11-16 南京柯基数据科技有限公司 一种基于记忆网络的多轮对话下的意图识别方法
CN109241250A (zh) * 2018-07-25 2019-01-18 南京瓦尔基里网络科技有限公司 一种策略规则对话推进以及意向判别方法及系统
CN109558477A (zh) * 2018-10-23 2019-04-02 深圳先进技术研究院 一种基于多任务学习的社区问答系统、方法及电子设备
CN109686360A (zh) * 2019-01-08 2019-04-26 哈尔滨理工大学 一种语音订餐机器人

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘娇等: "人机对话系统中意图识别方法综述", 《计算机工程与应用》 *
忆臻: "对话系统综述:新进展新前沿", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/45210996》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610627A (zh) * 2019-09-29 2019-12-24 苏州思必驰信息科技有限公司 启发式诗词学习方法及装置
CN111143561A (zh) * 2019-12-26 2020-05-12 北京百度网讯科技有限公司 意图识别模型训练方法、装置及电子设备
CN111143561B (zh) * 2019-12-26 2023-04-07 北京百度网讯科技有限公司 意图识别模型训练方法、装置及电子设备
CN111858888A (zh) * 2020-07-13 2020-10-30 北京航空航天大学 一种值机场景的多轮对话系统
CN111858888B (zh) * 2020-07-13 2023-05-30 北京航空航天大学 一种值机场景的多轮对话系统
WO2022083094A1 (zh) * 2020-10-23 2022-04-28 平安科技(深圳)有限公司 文本语义识别方法、装置、电子设备及存储介质
CN113409631A (zh) * 2021-06-18 2021-09-17 上海锡鼎智能科技有限公司 Ai辅助教学机器人
CN113672711A (zh) * 2021-08-09 2021-11-19 之江实验室 一种服务型机器人意图识别装置及其训练、识别方法
CN113672711B (zh) * 2021-08-09 2024-01-19 之江实验室 一种服务型机器人意图识别装置及其训练、识别方法
CN117827014A (zh) * 2024-03-05 2024-04-05 四川物通科技有限公司 一种基于元宇宙的数字孪生模型多人交互协作系统
CN117827014B (zh) * 2024-03-05 2024-06-04 四川物通科技有限公司 一种基于元宇宙的数字孪生模型多人交互协作系统

Also Published As

Publication number Publication date
CN110175228B (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
CN110175228A (zh) 基于基础模块和机器学习的循环嵌入对话训练方法及系统
Myhill et al. Playful explicitness with grammar: A pedagogy for writing
Kim et al. Design principles and architecture of a second language learning chatbot
Myhill et al. Re-thinking grammar: The impact of embedded grammar teaching on students’ writing and students’ metalinguistic understanding
Ellis Language learning experience as a contributor to ESOL teacher cognition.
Furqon Correlation between students’ vocabulary mastery and their reading comprehension
Ganie et al. Reading comprehension problems on English texts faced by high school students in medan
KR102654480B1 (ko) 언어학습을 위한 지식 기반 대화 시스템 및 방법
Seedhouse Locusts, snowflakes and recasts: complexity theory and spoken interaction
Cromley et al. Flexible strategy use by students who learn much versus little from text: transitions within think‐aloud protocols
Olney et al. Tutorial dialog in natural language
Graesser et al. Conversational agents can provide formative assessment, constructive learning, and adaptive instruction
Wilske Form and meaning in dialog-based computer-assisted language learning
Suresh et al. Using deep learning to automatically detect talk moves in teachers' mathematics lessons
Sun Teaching young adult literature in secondary L2 classrooms: a case study of The Outsiders reading programme
Couper et al. Teaching the sociocultural norms of an undergraduate community of practice
Ruan Special‐Purpose English Teaching Reform and Model Design in the Era of Artificial Intelligence
Han et al. A study on exploring the path of psychology and civics teaching reform in universities based on artificial intelligence
Jack Effective direct vocabulary instruction to meet the focus of the common core standards
Yang Analysis on the development strategy of computer education microcourse resources based on a cognitive diagnosis method
Ranjan Language learning strategies: Its role in learning of Spanish in Indian universities
CN108959464A (zh) 含有助词的学习方法及系统
CN108897731A (zh) 英语口语学习方法以及系统
Samarasinghe et al. Reliance on AI tools and fostering creativity among Sri Lankan ESL learners: Special focus to ChatGPT
Wang [Retracted] Optimization and Evaluation of Oral English CAF Based on Artificial Intelligence and Corpus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant