CN112632961B - 基于上下文推理的自然语言理解处理方法、装置以及设备 - Google Patents

基于上下文推理的自然语言理解处理方法、装置以及设备 Download PDF

Info

Publication number
CN112632961B
CN112632961B CN202110240179.8A CN202110240179A CN112632961B CN 112632961 B CN112632961 B CN 112632961B CN 202110240179 A CN202110240179 A CN 202110240179A CN 112632961 B CN112632961 B CN 112632961B
Authority
CN
China
Prior art keywords
user
current
intention
current speech
slot position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110240179.8A
Other languages
English (en)
Other versions
CN112632961A (zh
Inventor
吴颖婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202110240179.8A priority Critical patent/CN112632961B/zh
Publication of CN112632961A publication Critical patent/CN112632961A/zh
Application granted granted Critical
Publication of CN112632961B publication Critical patent/CN112632961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

本说明书实施例公开了基于上下文推理的自然语言理解处理方法、装置以及设备。方案包括:获取用户当前发言,以及多轮的历史对话信息;将用户当前发言和历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;根据注意力机制对历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;根据加权表征向量和用户当前发言对应的语义表示向量,预测用户当前发言的意图和槽位只与用户当前发言存在依赖关系,还是与历史对话信息之间存在依赖关系;若与历史对话信息之间存在依赖关系,则获取已为历史对话信息确定的意图和槽位,并据此确定用户当前发言的意图和槽位。

Description

基于上下文推理的自然语言理解处理方法、装置以及设备
技术领域
本说明书涉及自然语言处理技术领域,尤其涉及一种基于上下文推理的自然语言理解处理方法、装置以及设备。
背景技术
随着计算机和互联网技术的发展,自动对话系统在很多应用中已经得到应用,其能够更快地响应用户的问题,减轻了客服人员的负担。
目前的自动对话系统与用户以一问一答的形式进行交互,自动对话系统在用户新发言一句后,会与将该句与预设的一些问题进行匹配,然后获取为匹配成功的问题预设的回答,用于自动回复用户。
基于此,需要更智能更准确的自动对话方案。
发明内容
本说明书一个或多个实施例提供一种基于上下文推理的自然语言理解处理方法、装置、设备以及存储介质,用以解决如下技术问题:需要更智能更准确的自动对话方案。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理方法,包括:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理装置,包括:
对话获取模块,获取用户当前发言,以及多轮的历史对话信息;
独立编码模块,将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
注意力分析模块,根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
依赖推理模块,根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
意图槽位确定模块,若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
本说明书一个或多个实施例提供的一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
本说明书一个或多个实施例采用的上述至少一个技术方案能够达到以下有益效果:针对bert等语言模型对文本输入长度的限制问题,采取将对话中的句子分别独立编码的方式,降低编码的长度;可以利用灵活的多头部注意力机制,对意图和槽位与用户当前发言以及上文之间的依赖关系进行推理,增加了可解释性;考虑了任务型对话中历史意图和历史槽位的可延续性,通过门机制,使得能够在当前直接的识别结果和历史结果中进行筛选,进一步降低了模型的错误率。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理方法的流程示意图;
图2为本说明书一个或多个实施例提供的一种应用场景下,图1中方法的一种系统架构示意图;
图3为本说明书一个或多个实施例提供的一种应用场景下,图2中系统架构的一种详细工作流程示意图;
图4为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理装置的结构示意图;
图5为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理设备的结构示意图。
具体实施方式
本说明书实施例提供一种基于上下文推理的自然语言理解处理方法、装置、设备以及存储介质。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
在本说明书一个或多个实施例中,提出了一种基于上下文推理的对话自然语言理解模型,结合了对话的内外部记忆,包括历史意图、历史槽位、外部数据(比如,用户在当前业务场景下的业务属性、用户历史行为等)等信息,有效地解决了对话系统中与上下文相关的用户问题的意图识别和槽位提取,增加了模型的可解释性。
在本说明书一个或多个实施例中,提出了一种理财智能对话机器人,其以对话的形式为用户提供服务,为用户解答各种理财问题,分析用户的理财状况,帮助用户选择适合的理财方式,在该机器人的系统中,自然语言理解模块是位置靠前的一个重要模块,该模块需要完成意图识别和槽位填充两个任务。这两个任务的准确率直接影响用户感受到的智能感的强弱,在一种实际应用场景下,该机器人支持近百个理财相关的、语义接近的意图,而自然语言有潜在无穷的表达方式,在这样的场景下,达到尽可能高的意图识别和槽位填充准确率,具备强泛化性,是所面临的挑战。正如背景技术中提到的现有方案,在智能问答时局限于当前轮的对话,未无法有效利用其他一些有用的信息,而根据业务数据分析,很多用户问题都需要从上文的历史信息中获得答案,基于此,将基于上下文推理的对话自然语言理解模型应用于理财智能对话机器人中,以提高它自动对话的智能性和准确性。
下面基于这样的思路,具体进行说明。
图1为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理方法的流程示意图。该方法可以应用于不同的业务领域,比如,互联网金融业务领域、电商业务领域、即时通讯业务领域、游戏业务领域、公务业务领域等。该流程可以由相应领域的计算设备(比如,支付业务对应的智能客服服务器或者智能移动终端等)执行,流程中的某些输入参数或者中间结果允许人工干预调节,以帮助提高准确性。
图1中的流程可以包括以下步骤:
S102:获取用户当前发言,以及多轮的历史对话信息。
在本说明书一个或多个实施例中,用户当前发言包括该用户最新的一次发言,历史对话信息包括该发言上面的来往对话,一次来往可以作为一轮。比如,在一个两方对话聊天窗口中,用户当前发言指用户最后一次发出的聊天信息,历史对话信息指该聊天信息上面的聊天信息。
在智能客服场景下,用户是真人,客服是智能对话机器人。用户当前发言是用户最新发出的一个问题或者对客服问题的回答,用户期待机器人正确解答问题或者根据已提供的回答推动业务进行。
S104:将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量。
在本说明书一个或多个实施例中,一些方案中会将上下文进行拼接后分析,考虑到诸如bert等语言模型对文本输入长度的限制问题,本方案中不仅不进行这样的上下文拼接,反而将对话中的句子分别独立编码,从而能够降低编码长度,而且有助于将语义表达得更精细。
在独立编码时,各句子之间不会相互参考,为了提高编码效率,将各句子并行地独立编码。
S106:根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量。
在本说明书一个或多个实施例中,通过语义表示向量,精确地表达了各句子自身的语义之后,进一步地关注上下文之间的关系,尤其是各句子与当前亟待响应的句子(用户当前发言中的句子)之间的关联程度。比如,基于注意力机制,使得历史对话信息对应的各语义表示向量,聚焦注意力于用户当前发言中的句子对应的语义表示向量,从而,得到用户当前发言与历史对话信息中不同句子之间的不同关联程度,并相应地进行加权表征。
基于此,比如根据针对用户当前发言对应的语义表示向量的注意力,综合地进行再映射处理,通过再映射处理,确定历史对话信息中的不同部分与用户当前发言之间的相关性差异,以及根据相关性差异得到对应的加权表征向量。这里之所以称为再映射,是因为在上一个步骤中独立编码实际上也是一个映射过程。对于相关性越高的部分,可以为其设置更高的权重,反映在加权表征向量中,进而在后续预测依赖关系的时候,更多地考虑相关性更高的部分,有助于提高准确性。
在本说明书一个或多个实施例中,根据注意力机制将历史对话信息对应的语义表示向量映射至多个不同的子区域表征空间映射,如此使得能够更好地分别重点关注用户当前发言中的不同方面(比如,诸如人名、产品名、地名、时间日期、专有名词等不同的命名实体对应的句子部分),捕捉到更丰富的特征,从而有助于后续更精确地识别意图和槽位。
S108:根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系。
在本说明书一个或多个实施例中,用户当前发言也可能转换了话题,提了与上文不相干的一个新问题,在这种情况下,预测用户当前发言的意图和槽位时主要考虑用户当前发言本身即可。而在另一些情况下,用户当前发言是之前话题的延续,则其意图和槽位不仅与用户当前发言存在依赖关系,还与历史对话信息之间存在依赖关系,甚至更依赖历史对话信息,在这种情况下,若不结合历史对话信息,难以准确理解用户当前发言。
进一步地,除了对话内容以外,还可以预测用户当前发言的意图和槽位与外部数据是否存在依赖关系,外部数据比如包括用户的其他历史行为数据、用户在指定业务的属性数据等,外部数据可以根据模型需要进行调用。
若预测出用户当前发言的意图和槽位与外部数据存在依赖关系,则能够根据外部数据预测意图和槽位,更智能地理解和响应用户,减轻后续交互时用户的负担,需要用户说的内容会减少,从而提高用户体验。
在本说明书一个或多个实施例中,步骤S108的执行过程中,用户当前发言的意图和槽位是尚未确定甚至尚未有候选结果的,但这并不影响对依赖关系的预测。因为,此时用户当前发言和历史对话信息的语义已经有了了解,根据语义足以推理依赖关系(得到比较泛的结果),再进一步地更精确地推测意图和槽位(基于泛的结果得到更具体的结果)。
在本说明书一个或多个实施例中,单独根据用户当前发言对应的语义表示向量,来预测上述的一些依赖关系。原理在于,若用户新开话题,则为了对方听懂,其当前发言往往相对详细,句子成分比较完整,对于关键的实体会直接描述而不会用代词指代,反之,若用户只是延续上面的已有话题,则为了简明省事,发言会更简略,一些句子成分会缺失,会更多地使用代词,指代上面已经提过的实体。基于此,可以根据用户当前发言本身或者其对应的语义表示向量,分析句子成分的完整程度,以及对代词的使用程度(比如,使用比例、使用频度等),若该完整程度低于一定阈值和/或该使用程度高于一定阈值,则判定用户当前发言的意图和槽位与历史对话信息之间存在依赖关系,否则,可以判定用户当前发言的意图和槽位只与用户当前发言存在依赖关系。这种方式的优点在于:无需分析历史对话信息即能判定依赖关系,有助于提高处理效率。
进一步地,更可靠地,先按照上一段中的方式,确定该完整程度低于一定阈值和/或该使用程度高于一定阈值,作为前提条件,再执行步骤S108,预测是否与历史对话信息之间存在依赖关系。若该条件不满足,可以直接判定只与用户当前发言存在依赖关系。
另外,需要说明的是,上述的只与用户当前发言存在依赖关系,这样的描述主要是强调与用户当前发言之间的一种强关联的关系,而并非表示用户当前发言与历史对话信息之间就没有关联。
S110:若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
在本说明书一个或多个实施例中,图1中的流程随着对话进行会执行多轮,如此,一些历史对话信息的意图和槽位是之前轮执行时已经确定的,若用户当前发言与历史对话信息之间存在依赖关系,则可以参考已为历史对话信息确定的意图和槽位,更快速地确定用户当前发言的意图和槽位。
例如,直接沿用之前的意图和槽位,作为当前的意图和槽位,如此事半功倍,减少了成本,提高了响应速度。或者,也可以根据对话所涉及任务对应的业务逻辑(在一个既定的业务链中,做完一个业务环节后,接下来一个业务环节是顺理成章的,比如,用户想要买理财,可以推理出若他问了推荐理财产品并得到响应后,接下来很有可能问稳健性方面的问题),推理出当前的意图和槽位,优点还在于:即使推理错了并未精确命中事实,对应给出响应仍然可能是用户关心的其他方面(即使用户不是现在问,原本也可能在接下来问),则用户仍能得到一定程度的满足,从而不太会计较当前响应的偏差。
若用户打开了一个新话题,其当前发言与历史对话信息之间依赖程度并不那么大,则可以基于用户当前发言或者再结合历史对话信息,正常地预测其意图和槽位,而不是省事地直接沿用之前的意图和槽位。
通过图1的方法,针对bert等语言模型对文本输入长度的限制问题,采取将对话中的句子分别独立编码的方式,降低编码的长度;利用灵活的多头部注意力机制,对意图和槽位与用户当前发言以及上文之间的依赖关系进行了推理,增加了可解释性;考虑了任务型对话中历史意图和历史槽位的可延续性,通过门机制,使得能够在当前直接的识别结果和历史结果中进行筛选,进一步降低了模型的错误率。
基于图1的方法,本说明书还提供了该方法的一些具体实施方案和扩展方案,下面继续进行说明。
在本说明书一个或多个实施例中,通过针对用户当前发言的独立编码,得用户当前发言的语义令牌(可以用于划分出表示单独实体的对应语义部分),根据语义令牌,对用户当前发言本身进行实体抽取,得到用户当前发言的候选槽位(比如,用户提到了一个基金名称,则对应得到的候选槽位比如包括“理财产品”)。这种处理方式无需考虑上下文,得到的候选槽位是比较直观的,主要依赖于用户当前发言本身。若用户当前发言是一个新话题的开始,则此时得到的候选槽位是比较准确的,可以直接确定为用户当前发言的槽位。
在本说明书一个或多个实施例中,在生成加权表征向量时,具体根据针对用户当前发言对应的语义表示向量的注意力(比如,对该向量不同的维度集合的注意力),将历史对话信息对应的语义表示向量映射至多个不同的子区域表征空间,之后再进行融合。比如,可以采用多头部注意力机制,向多个不同的子区域表征空间进行线性映射,这种方式计算量相对小,效率高,而且对少样本的场景支持也较好。
在本说明书一个或多个实施例中,为了便于利用历史对话信息,采用门控机制在适合的时候将之前的状态向当前的状态反馈结合,以更准确地预测依赖关系。基于此,设置了意图门、槽位门,为了提高效率,利用这两个门并行地进行预测。
具体比如,将加权表征向量与用户当前发言对应的语义表示向量进行拼接,得到拼接向量,将拼接向量分别传入意图门、槽位门进行处理,得到意图门预测的用户当前发言的意图只依赖于用户当前发言自身,还是依赖于历史对话信息,以及得到槽位门预测的用户当前发言的槽位只依赖于用户当前发言自身,依赖于历史对话信息。
前面已经提到,除了对话以外,还可以根据外部数据进行预测。需要说明的是,本说明书考虑到对于外部数据而言,其与意图和槽位的关系有差异,主要在于:意图通常是重点着眼于动作,相对而言更具动态性和实时性,而槽位则重点着眼于命名实体(主要是各种对象),相对而言更静态更容易通过外部数据推断,因此,认为外部数据对于槽位,相比于对于意图,更具有参考性。
基于此,可以预测外部数据与用户当前发言的槽位是否具有依赖关系,而不预测外部数据与用户当前发言的意图是否具有依赖关系,从而有助于兼顾准确性和处理效率。具体地,拼接向量传入槽位门进行处理,得到槽位门预测的用户当前发言的槽位只依赖于用户当前发言自身,依赖于历史对话信息,还是依赖于预定的外部数据。为了便于确定最终的槽位,对于依赖关系的确定可以是根据依赖程度择一而定的,不同的依赖关系分别有对应的槽位。
在本说明书一个或多个实施例中,若预测出用户当前发言的意图和槽位并非只与用户当前发言具有依赖关系,则可以考虑重复利用历史的意图和槽位。具体比如,若用户当前发言与历史对话信息之间存在依赖关系,则可以获取已为历史对话信息确定的意图和槽位,并据此确定用户当前发言的意图和槽位,若用户当前发言与外部数据之间存在依赖关系,则可以获取外部数据对应的槽位,并据此确定用户当前发言的槽位。而若预测出用户当前发言的意图和槽位只与用户当前发言具有依赖关系,则可以不参照历史的意图和槽位,而正常地分析确定出用户当前发言的意图和槽位,需要说明的是,该正常的分析过程也是可以考虑了历史对话信息本身的,而未必是只考虑用户当前发言,如此,结合了上下文,有助于更准确地确定意图和槽位。
在本说明书一个或多个实施例中,采用意图分类器正常地预测用户当前发言的意图。具体比如,在得到上述的拼接向量后,将拼接向量传入意图分类器进行处理,分类得到拼接向量对应的候选意图,若预测用户当前发言的意图和槽位只与用户当前发言存在依赖关系,则确定候选意图为用户当前发言的意图,确定候选槽位为用户当前发言的槽位。为了提高效率,将拼接向量作为公共输入,并行地分别输入意图分配器、意图门和槽位门进行处理,从而对应地完成三项任务,有助于加快最终的决策。
在本说明书一个或多个实施例中,还考虑了对话的完整性,目前的一些方案中,只要用户发送了一次发言,则自动对话系统会及时给出回复,甚至是用户在刚发出就收到了自动回复(尤其是一些预设自动回复的场景下,会自动回复一大段话,甚至刷屏,摆明了是机器人自动回复,对此用户体验是很不好的)。但是,在实际应用中,有很多用户当前这次发送尚未将事情说完,准备接着编辑下一句话接着说,可能需要连续发多次,才将意思完整表达,在这种情况下,现有的方案很容易打断用户发言,而且也不利于正确推测意图和槽位。针对这样的问题,本方案考虑的主要不是及时快速地回复,而是争取在掌握完整意思后准确回复,同时又能使得用户不会产生被冷落感和被敷衍感。具体地,当接收到用户当前发言,可以分析该次用户当前发言是否已告一段落,比如,可以读取对面的输入状态(一些即时通讯程序能够获取“对方当前是否正在输入”的状态),若用户正在输入,则等待片刻,看用户是否马上发出后续内容,再比如,可以分析用户当前发言本身的成分(包括标点)、语义还有一些预设关键词,若以逗号结尾,或者当前发言明显表示一种前置状态、(比如,“我刚看了下”、),或者包含“问题”等关键词的短句(比如,“这有些问题啊”),则用户可能还要补充发言,此时可以判定用户当前发言尚未已告一段落,等待用户当前发言更完整后,再执行推理确定意图和槽位。另外,为了防止这样的等待引起用户误解和疑惑,可以适时地自动回复一些简短的内容来承接(这里回复的内容主要不是为了解决具体的业务问题,而是让对话变得更顺滑,提高交互感),以表示正在认真关注用户当前发言,就好比真人对话时,一方发言时,对方适时简短地进行附和,从而使双方沟通更加融洽自然,自动回复的内容可以根据用户响应实时地自适应调整,而不是采用一些死板固定的预设回复,比如,用户提到了问题,可以回复“您方便详细说下吗”,用户提到了“我刚看了下”,可以回复“嗯,情况怎样”,用户提到了“操作到XX步的时候”,可以回复“对的,XX步是比较重要的”,等等。通过这样的处理,一方面能够更准确地把握用户意图,更准确地提取和填充槽位,另一方面,也使得用户更有真人对话的身临其境感,如果做得够好,甚至能让用户意识不到这是在跟机器人对话,这也是本方案可能达到的智能化效果。
在本说明书一个或多个实施例中,考虑到在实际应用中,若预测出用户当前发言的意图和槽位只与用户当前发言存在依赖关系,则表示用户很有可能新开了话题。但是,在实际应用中,相比于用户,业务方这侧(即对话机器人这侧)对业务更为了解,因此才会成为用户的询问对象,在这种情况下,其实可能存用户在上一话题尚未询问透彻的可能性,而用户未必自知,而未询问透彻的部分有可能是比较重要用户有必要了解的,基于此,为了打造一个细致负责而善解人意的智能机器人,可以使得在确定意图和槽位时,同时两手准备,一方面根据实际情况,有选择性地补充属于上一话题比较重要的但用户未表达出的意图和槽位,另一方面可以确定与用户当前发言直接相关的意图和槽位,然后根据两手准备的结果,生成相应的回复在接下来进行自动回复,比如,在接下来的回复中先直接回答用户的当前问题,然后紧接着体贴地补充上一话题的内容,并关注用户是否对补充的内容有兴趣,在有兴趣的情况下尤其能体现出该方案的价值,因为想到了用户未能想到之处,再比如,也可以先补充上一话题的内容,若用户无兴趣再具体地推进下一话题。
结合前面的说明,本说明书一个或多个实施例提供了的一种应用场景下,图1中方法的一种系统架构示意图,以及该系统架构的一种详细工作流程示意图,分别如图2、图3所示。
图2的系统架构包括语义编码器(比如,为一个预训练的语言模型)、多头部注意力模型,这两部分用于根据语义将对话向量化;还包括意图门、槽位门,这两部分用于预测依赖关系;还包括意图分类器、槽位提取器,这两部分用于主要依赖于用户当前发言,正常地分析确定意图和槽位。
结合图2的系统架构,对图3中的流程进行说明。图3中的流程包括如下步骤:
将历史对话信息(u1、u2、u3、u4、u5、u6)和用户当前发言(ui)以句子形式,输入语义编码器,进行并行化编码,得到各句子分别的语义表示向量(h1、h2、h3、h4、h5、h6、hi)。
将各语义表示向量通过多头部注意力模型,处理获得与用户当前发言最为相关的历史对话信息的加权表征向量。
将该加权表征向量和用户当前发言的语义表示向量进行拼接后,分别传入意图门、意图分类器、槽位门处理。其中,意图分类器用于对用户当前发言的意图进行分类,意图门用于预测用户当前发言的意图是只依赖用户当前发言,还是依赖历史对话信息,槽位门用于预测只依赖用户当前发言,还是依赖历史对话信息,还是依赖于外部数据。这里,假设意图和槽位都只依赖其中一种来源,通过这种门控机制,可以对结果进行推理。
若意图门预测出当前意图只依赖用户当前发言,则直接输出意图分类器的结果作为最终意图识别结果,若依赖历史对话信息,则从对应的历史意图中提取最近的一个意图作为最终意图识别结果。
在并行化编码后,不仅输出了用户当前发言的语义表示向量,还输出了对应的语义令牌,槽位提取器根据语义令牌,只对用户当前发言做了实体的抽取,提取出候选槽位。
若槽位门预测出当前槽位只依赖用户当前发言,则直接输出该候选槽位作为最终槽位识别结果,若依赖历史对话信息,则从对应的历史槽位中提取最近的一个槽位作为最终槽位识别结果,若依赖外部数据,则从外部数据对应的槽位中获取最终槽位识别结果。
更直观地,在理财客服服务场景下应用上述方案,假定外部数据包括用户已有的理财产品(1个名为“长城XXXX基金”的基金),客服机器人与用户之间已有的一段对话如下:
“机器人:你当前持有1个基金,总金额998.54元,有什么需要我帮忙的吗,基金卡-长城XXXX基金。
用户:现在可以补仓吗。
机器人:好哒,你想询问哪只基金的买卖时点和操作呢。
用户:就是这只。”
在该段对话中,前三句为历史对话信息,最后一句为用户当前发言。通过模型处理,预测出用户当前发言的意图和槽位依赖于历史对话信息,意图比如包括:用户想对理财产品补仓,槽位比如包括:理财产品名称、基金操作等。需要说明的是,在该场景的外部数据的支持下,也可能预测出用户当前发言的部分槽位依赖于外部数据,比如“理财产品名称”这种槽位。
之后根据具体信息对预测出的槽位进行填充,并根据意图识别结果和槽位填充结果,生成自动回复内容,比如,使机器人自动回复对“长城XXXX基金”的补仓操作建议等,从而解决了用户当前的实际问题。
基于同样的思路,本说明书一个或多个实施例还提供了上述方法对应的装置和设备,如图4、图5所示。
图4为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理装置的结构示意图,所述装置包括:
对话获取模块402,获取用户当前发言,以及多轮的历史对话信息;
独立编码模块404,将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
注意力分析模块406,根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
依赖推理模块408,根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
意图槽位确定模块410,若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
可选地,所述注意力分析模块406,根据针对所述用户当前发言对应的语义表示向量的注意力,综合地进行再映射处理;
通过所述再映射处理,确定所述历史对话信息中的不同部分与所述用户当前发言之间的相关性差异,以及根据所述相关性差异得到对应的加权表征向量。
可选地,所述注意力分析模块406,根据针对所述用户当前发言对应的语义表示向量的注意力,将所述历史对话信息对应的语义表示向量线性映射至多个不同的子区域表征空间,之后再进行融合。
可选地,所述用户当前发言,以及多轮的历史对话信息包括用户与智能对话机器人之间的理财咨询问答对话;
所述依赖推理模块408,在所述意图槽位确定模块410确定所述用户当前发言的意图和槽位之前,根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的槽位与预定的外部数据之间是否存在依赖关系,以确定是否根据所述外部数据,确定所述用户当前发言的槽位;
其中,所述外部数据包括所述用户已有的理财产品。
可选地,所述依赖推理模块408,将所述加权表征向量与所述用户当前发言对应的语义表示向量进行拼接,得到拼接向量;
将所述拼接向量分别传入意图门、槽位门进行处理;
得到所述意图门预测的所述用户当前发言的意图只依赖于所述用户当前发言自身,还是依赖于所述历史对话信息,以及得到所述槽位门预测的所述用户当前发言的槽位只依赖于所述用户当前发言自身,依赖于所述历史对话信息,还是依赖于预定的外部数据。
可选地,所述独立编码模块404还执行:
通过针对所述用户当前发言的所述独立编码,得到所述用户当前发言的语义令牌;
根据所述语义令牌,对所述用户当前发言本身进行实体抽取,得到所述用户当前发言的候选槽位。
可选地,所述依赖推理模块408得到拼接向量后,将所述拼接向量传入意图分类器进行处理,分类得到所述拼接向量对应的候选意图;
若预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,则所述意图槽位确定模块410确定所述候选意图为所述用户当前发言的意图,确定所述候选槽位为所述用户当前发言的槽位。
可选地,所述意图槽位确定模块410,从已为所述历史对话信息确定的意图和槽位中,提取最近的意图和槽位,作为所述用户当前发言的意图和槽位。
图5为本说明书一个或多个实施例提供的一种基于上下文推理的自然语言理解处理设备的结构示意图,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制将所述历史对话信息对应的语义表示向量映射至多个不同的子区域表征空间,之后再进行融合处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
处理器与存储器之间可以通过总线通信,设备还可以包括与其他设备通信的输入/输出接口。
基于同样的思路,本说明书一个或多个实施例还提供了对应于上述方法的一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制将所述历史对话信息对应的语义表示向量映射至多个不同的子区域表征空间,之后再进行融合处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (17)

1.一种基于上下文推理的自然语言理解处理方法,包括:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
2.如权利要求1所述的方法,所述根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量,具体包括:
根据针对所述用户当前发言对应的语义表示向量的注意力,综合地进行再映射处理;
通过所述再映射处理,确定所述历史对话信息中的不同部分与所述用户当前发言之间的相关性差异,以及根据所述相关性差异得到对应的加权表征向量。
3.如权利要求1所述的方法,所述根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,具体包括:
根据针对所述用户当前发言对应的语义表示向量的注意力,将所述历史对话信息对应的语义表示向量线性映射至多个不同的子区域表征空间,之后再进行融合。
4.如权利要求1所述的方法,所述用户当前发言,以及多轮的历史对话信息包括用户与智能对话机器人之间的理财咨询问答对话;
所述确定所述用户当前发言的意图和槽位之前,所述方法还包括:
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的槽位与预定的外部数据之间是否存在依赖关系,以确定是否根据所述外部数据,确定所述用户当前发言的槽位;
其中,所述外部数据包括所述用户已有的理财产品。
5.如权利要求1或4所述的方法,所述根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系,具体包括:
将所述加权表征向量与所述用户当前发言对应的语义表示向量进行拼接,得到拼接向量;
将所述拼接向量分别传入意图门、槽位门进行处理;
得到所述意图门预测的所述用户当前发言的意图只依赖于所述用户当前发言自身,还是依赖于所述历史对话信息,以及得到所述槽位门预测的所述用户当前发言的槽位只依赖于所述用户当前发言自身,依赖于所述历史对话信息,还是依赖于预定的外部数据。
6.如权利要求5所述的方法,所述方法还包括:
通过针对所述用户当前发言的所述独立编码,得到所述用户当前发言的语义令牌;
根据所述语义令牌,对所述用户当前发言本身进行实体抽取,得到所述用户当前发言的候选槽位。
7.如权利要求6所述的方法,所述得到拼接向量后,所述方法还包括:
将所述拼接向量传入意图分类器进行处理,分类得到所述拼接向量对应的候选意图;
若预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,则确定所述候选意图为所述用户当前发言的意图,确定所述候选槽位为所述用户当前发言的槽位。
8.如权利要求1所述的方法,所述据此确定所述用户当前发言的意图和槽位,具体包括:
从已为所述历史对话信息确定的意图和槽位中,提取最近的意图和槽位,作为所述用户当前发言的意图和槽位。
9.一种基于上下文推理的自然语言理解处理装置,包括:
对话获取模块,获取用户当前发言,以及多轮的历史对话信息;
独立编码模块,将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
注意力分析模块,根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
依赖推理模块,根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
意图槽位确定模块,若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
10.如权利要求9所述的装置,所述注意力分析模块,根据针对所述用户当前发言对应的语义表示向量的注意力,综合地进行再映射处理;
通过所述再映射处理,确定所述历史对话信息中的不同部分与所述用户当前发言之间的相关性差异,以及根据所述相关性差异得到对应的加权表征向量。
11.如权利要求9所述的装置,所述注意力分析模块,根据针对所述用户当前发言对应的语义表示向量的注意力,将所述历史对话信息对应的语义表示向量线性映射至多个不同的子区域表征空间,之后再进行融合。
12.如权利要求9所述的装置,所述用户当前发言,以及多轮的历史对话信息包括用户与智能对话机器人之间的理财咨询问答对话;
所述依赖推理模块,在所述意图槽位确定模块确定所述用户当前发言的意图和槽位之前,根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的槽位与预定的外部数据之间是否存在依赖关系,以确定是否根据所述外部数据,确定所述用户当前发言的槽位;
其中,所述外部数据包括所述用户已有的理财产品。
13.如权利要求9或12所述的装置,所述依赖推理模块,将所述加权表征向量与所述用户当前发言对应的语义表示向量进行拼接,得到拼接向量;
将所述拼接向量分别传入意图门、槽位门进行处理;
得到所述意图门预测的所述用户当前发言的意图只依赖于所述用户当前发言自身,还是依赖于所述历史对话信息,以及得到所述槽位门预测的所述用户当前发言的槽位只依赖于所述用户当前发言自身,依赖于所述历史对话信息,还是依赖于预定的外部数据。
14.如权利要求13所述的装置,所述独立编码模块还执行:
通过针对所述用户当前发言的所述独立编码,得到所述用户当前发言的语义令牌;
根据所述语义令牌,对所述用户当前发言本身进行实体抽取,得到所述用户当前发言的候选槽位。
15.如权利要求14所述的装置,所述依赖推理模块得到拼接向量后,将所述拼接向量传入意图分类器进行处理,分类得到所述拼接向量对应的候选意图;
若预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,则所述意图槽位确定模块确定所述候选意图为所述用户当前发言的意图,确定所述候选槽位为所述用户当前发言的槽位。
16.如权利要求9所述的装置,所述意图槽位确定模块,从已为所述历史对话信息确定的意图和槽位中,提取最近的意图和槽位,作为所述用户当前发言的意图和槽位。
17.一种基于上下文推理的自然语言理解处理设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取用户当前发言,以及多轮的历史对话信息;
将所述用户当前发言和所述历史对话信息分句后,分别进行独立编码,得到各句子分别的语义表示向量;
根据注意力机制对所述历史对话信息对应的语义表示向量综合地进行再映射处理,得到对应的加权表征向量;
根据所述加权表征向量和所述用户当前发言对应的语义表示向量,预测所述用户当前发言的意图和槽位只与所述用户当前发言存在依赖关系,还是与所述历史对话信息之间存在依赖关系;
若与所述历史对话信息之间存在依赖关系,则获取已为所述历史对话信息确定的意图和槽位,并据此确定所述用户当前发言的意图和槽位。
CN202110240179.8A 2021-03-04 2021-03-04 基于上下文推理的自然语言理解处理方法、装置以及设备 Active CN112632961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110240179.8A CN112632961B (zh) 2021-03-04 2021-03-04 基于上下文推理的自然语言理解处理方法、装置以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110240179.8A CN112632961B (zh) 2021-03-04 2021-03-04 基于上下文推理的自然语言理解处理方法、装置以及设备

Publications (2)

Publication Number Publication Date
CN112632961A CN112632961A (zh) 2021-04-09
CN112632961B true CN112632961B (zh) 2021-06-18

Family

ID=75295574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110240179.8A Active CN112632961B (zh) 2021-03-04 2021-03-04 基于上下文推理的自然语言理解处理方法、装置以及设备

Country Status (1)

Country Link
CN (1) CN112632961B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113010661A (zh) * 2021-04-22 2021-06-22 中国平安人寿保险股份有限公司 解析语句的方法、装置、设备及存储介质
CN113326360B (zh) * 2021-04-25 2022-12-13 哈尔滨工业大学 一种小样本场景下的自然语言理解方法
CN113609266A (zh) * 2021-07-09 2021-11-05 阿里巴巴新加坡控股有限公司 资源处理方法以及装置
CN113673257A (zh) * 2021-08-18 2021-11-19 山东新一代信息产业技术研究院有限公司 一种多轮问答语义生成方法、设备及介质
CN113821731A (zh) * 2021-11-23 2021-12-21 湖北亿咖通科技有限公司 信息推送方法、设备和介质
US20230252982A1 (en) * 2022-02-07 2023-08-10 Samsung Electronics Co., Ltd. Modeling attention to improve classification and provide inherent explainability
CN114756693B (zh) * 2022-06-15 2022-11-01 科大讯飞(苏州)科技有限公司 对话生成方法、相关设备及可读存储介质
CN117114695B (zh) * 2023-10-19 2024-01-26 本溪钢铁(集团)信息自动化有限责任公司 基于钢铁行业智能客服的交互方法及装置
CN117453899B (zh) * 2023-12-26 2024-03-29 浙江智港通科技有限公司 一种基于大模型的智能对话系统、方法与电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704588A (zh) * 2019-09-04 2020-01-17 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质
CN112364665A (zh) * 2020-10-11 2021-02-12 广州九四智能科技有限公司 一种语义提取方法、装置、计算机设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829662A (zh) * 2018-05-10 2018-11-16 浙江大学 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统
CN112256857B (zh) * 2020-11-17 2023-02-03 北京邮电大学 一种基于图注意力机制的对话历史建模方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704588A (zh) * 2019-09-04 2020-01-17 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
CN112069300A (zh) * 2020-09-04 2020-12-11 中国平安人寿保险股份有限公司 任务型对话的语义识别方法、装置、电子设备及存储介质
CN112364665A (zh) * 2020-10-11 2021-02-12 广州九四智能科技有限公司 一种语义提取方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的人脸识别系统设计与实现;曹东旭;《中国优秀硕士学位论文全文数据库信息科技辑》;20180315;第I138-2067页 *

Also Published As

Publication number Publication date
CN112632961A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112632961B (zh) 基于上下文推理的自然语言理解处理方法、装置以及设备
US10733983B2 (en) Parameter collection and automatic dialog generation in dialog systems
US20210327428A1 (en) Adversarial learning and generation of dialogue responses
CN110309283B (zh) 一种智能问答的答案确定方法及装置
US10679613B2 (en) Spoken language understanding system and method using recurrent neural networks
US20190354594A1 (en) Building and deploying persona-based language generation models
CN110457449B (zh) 在线训练模型的方法、装置、设备及存储介质
US8315874B2 (en) Voice user interface authoring tool
US11288293B2 (en) Methods and systems for ensuring quality of unstructured user input content
CN115935182A (zh) 模型训练方法、多轮对话中的话题分割方法、介质及装置
CN115129878A (zh) 一种对话业务执行方法、装置、存储介质及电子设备
Pan et al. Automatically generating and improving voice command interface from operation sequences on smartphones
CN112597301A (zh) 一种语音意图识别方法及装置
EP4060517A1 (en) System and method for designing artificial intelligence (ai) based hierarchical multi-conversation system
CN112735374B (zh) 一种自动语音交互的方法及装置
CN112735407B (zh) 一种对话处理方法及装置
CN116127328B (zh) 一种对话状态识别模型的训练方法、装置、介质及设备
US11669697B2 (en) Hybrid policy dialogue manager for intelligent personal assistants
Boonstra Introduction to conversational AI
CN113220852B (zh) 人机对话方法、装置、设备和存储介质
CN111414468B (zh) 话术选择方法、装置和电子设备
CN115033676B (zh) 一种意图识别模型训练及用户意图识别方法及装置
Götzer Engineering and user experience of chatbots in the context of damage recording for insurance companies
CN117933389A (zh) 一种基于深度学习与规则的自然语言理解方法及系统
CN117521675A (zh) 基于大语言模型的信息处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant