CN115905490B - 人机交互对话方法、装置以及设备 - Google Patents

人机交互对话方法、装置以及设备 Download PDF

Info

Publication number
CN115905490B
CN115905490B CN202211492761.4A CN202211492761A CN115905490B CN 115905490 B CN115905490 B CN 115905490B CN 202211492761 A CN202211492761 A CN 202211492761A CN 115905490 B CN115905490 B CN 115905490B
Authority
CN
China
Prior art keywords
information
understanding
sample
model
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211492761.4A
Other languages
English (en)
Other versions
CN115905490A (zh
Inventor
卜崇宇
孙权
张伟伟
张伟冬
吴思佳
张贵洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202211492761.4A priority Critical patent/CN115905490B/zh
Publication of CN115905490A publication Critical patent/CN115905490A/zh
Application granted granted Critical
Publication of CN115905490B publication Critical patent/CN115905490B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种人机交互对话方法、装置以及设备,涉及人工智能技术领域,具体涉及自然语言处理、图像处理和深度学习等技术领域,可应用于智能客服系统。该方法的一具体实施方式包括:获取用户输入的多模态信息和用户的对话上下文信息;利用多模态理解模型对多模态信息进行理解,得到多模态理解结果;基于对话上下文信息和多模态理解结果,生成回复信息;输出回复信息。该实施方式可进行跨模态对话,丰富了智能客服系统或对话系统人机交互的多样性。

Description

人机交互对话方法、装置以及设备
技术领域
本公开涉及人工智能技术领域,具体涉及自然语言处理、图像处理和深度学习等技术领域,可应用于智能客服系统。
背景技术
随着机器学习技术的不断发展,智能客服对话系统已开始应用。在客服咨询对话中,坐席通过智能对话自动获取回复语句,以提高工作效率。
目前,智能客服对话系统以文本内容理解为主要功能,音频经过ASR(AutomaticSpeech Recognition,自动语音识别技术)转换为文本后进入到对话引擎中进行交互。任务式对话中通过会话流程画布对流程片段进行编排管理,具备理解文本实体、意图的功能,可产生基于编排规则、表格问答的回复内容。
发明内容
本公开实施例提出了一种人机交互对话方法、装置、设备、存储介质以及程序产品。
第一方面,本公开实施例提出了一种人机交互对话方法,包括:获取用户输入的多模态信息和用户的对话上下文信息;利用多模态理解模型对多模态信息进行理解,得到多模态理解结果;基于对话上下文信息和多模态理解结果,生成回复信息;输出回复信息。
第二方面,本公开实施例提出了一种多模态理解模型训练方法,包括:获取第一样本和第二样本,其中,第一样本包括第一多模态信息和第一多模态理解结果,第二样本包括第二多模态信息;将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型;利用第一模型对第二样本进行标签标注,得到第三样本;利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
第三方面,本公开实施例提出了一种人机交互对话装置,包括:信息获取模块,被配置成获取用户输入的多模态信息和用户的对话上下文信息;信息理解模块,被配置成利用多模态理解模型对多模态信息进行理解,得到多模态理解结果;信息生成模块,被配置成基于对话上下文信息和多模态理解结果,生成回复信息;信息输出模块,被配置成输出回复信息。
第四方面,本公开实施例提出了一种多模态理解模型训练装置,包括:样本获取模块,被配置成获取第一样本和第二样本,其中,第一样本包括第一多模态信息和第一多模态理解结果,第二样本包括第二多模态信息;第一训练模块,被配置成将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型;样本标注模块,被配置成利用第一模型对第二样本进行标签标注,得到第三样本;第二训练模块,被配置成利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
第五方面,本公开实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法或如第二方面中任一实现方式描述的方法。
第六方面,本公开实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法或如第二方面中任一实现方式描述的方法。
第七方面,本公开实施例提出了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面中任一实现方式描述的方法或如第二方面中任一实现方式描述的方法。
本公开实施例提供的人机交互对话方法,可理解多模态信息,进行跨模态对话,丰富了智能客服系统或对话系统人机交互的多样性,解决文本表征信息差的问题。并且,支持用户直接输入多模态信息,无需用户对其人工理解转化成文本,降低人机交互的人力成本。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的多模态理解模型训练方法的一个实施例的流程图;
图2是根据本公开的多模态理解模型训练方法的又一个实施例的流程图;
图3是根据本公开的人机交互对话方法的一个实施例的流程图;
图4是根据本公开的人机交互对话方法的又一个实施例的流程图;
图5是根据本公开的人机交互对话方法的另一个实施例的流程图;
图6是可以实现本公开实施例的人机交互对话方法的场景图;
图7是根据本公开的多模态理解模型训练装置的一个实施例的结构示意图;
图8是根据本公开的人机交互对话装置的一个实施例的结构示意图;
图9是用来实现本公开实施例的人机交互对话方法或多模态理解模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的多模态理解模型训练方法的一个实施例的流程图。该多模态理解模型训练方法包括以下步骤:
步骤101,获取第一样本和第二样本。
在本实施例中,多模态理解模型训练方法的执行主体可以获取第一样本和第二样本。
其中,多模态理解模型训练方法的执行主体可以是提供各种服务的服务器。例如,人机交互服务器,可以提供人机交互服务。具体地,人机交互服务器可以训练多模态理解模型,并在接收到用户终端发送的多模态信息时,通过多模态理解模型理解多模态信息,以与用户终端交互。又例如,模型训练服务器,可以提供模型训练服务。具体地,模型训练服务器可以训练多模态理解模型,并将训练完成的多模态理解模型发送给人机交互服务器。人机交互服务器可以在接收到用户终端发送的多模态信息时,通过多模态理解模型理解多模态信息,以与用户终端交互。此外,在用户终端的计算能力足够强的情况下,模型训练服务器还可以直接将训练完成的多模态理解模型发送给用户终端。用户终端可以在检测到用户输入的多模态信息时,通过多模态理解模型理解多模态信息,并将生成的回复信息呈现给用户。
其中,第一样本可以包括第一多模态信息和第一多模态理解结果,第二样本可以包括第二多模态信息。其中,信息的模态可以包括但不限于文本、音频、图片以及视频等等。多模态信息可以包括以上至少两种模态的信息。
在该实施例中,第一样本的第一多模态理解结果可以是专业人员对第一多模态信息的人工理解结果。因此,第一样本的质量较高。但是,由于理解成本较高,其数量通常较少。
步骤102,将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型。
在本实施例中,上述执行主体可以将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型。
在该实施例中,将第一多模态信息输入至初始模型,可以学习得到第一预测多模态理解结果。基于第一多模态理解结果与第一预测多模态理解结果的误差,对初始模型的参数进行调整,使得误差足够小,即可得到第一模型。
步骤103,利用第一模型对第二样本进行标签标注,得到第三样本。
在本实施例中,上述执行主体可以利用第一模型对第二样本进行标签标注,得到第三样本。
在该实施例中,将第二多模态信息输入至第一模型,可以学习得到第二多模态理解结果。将第二多模态理解结果作为标签标注到第二多模态信息上,即可生成候选样本。筛选至少部分候选样本,即可生成第三样本。例如,随机选取部分候选样本作为第三样本。又例如,将所有候选样本作为第三样本。
这里,通过半监督模式可以对无标签样本赋予可信赖的标签,对样本进行数据增广,丰富数据分布,提升训练出的多模态理解模型对实际数据的泛化能力。
步骤104,利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
在本实施例中,上述执行主体可以利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
在该实施例中,将第一样本和第三样本合并,生成训练样本集合。对于训练样本集合中的训练样本,上述执行主体可以将训练样本中的多模态信息作为输入,将对应的多模态理解结果作为输出,对初始模型进行训练,得到多模态理解模型。
在该实施例中,将训练样本中的多模态信息输入至初始模型,可以学习得到预测多模态理解结果。基于多模态理解结果与预测多模态理解结果的误差,对初始模型的参数进行调整,使得误差足够小,即可得到多模态理解模型。
本公开实施例提供的多模态理解模型训练方法,通过半监督模式训练多模态理解模型,在有标签样本数据量缺乏的情况下也能达到更好的理解性能。并且,通过半监督模式可以对无标签样本赋予可信赖的标签,对样本进行数据增广,丰富数据分布,提升训练出的多模态理解模型对实际数据的泛化能力。
继续参考图2,其示出了根据本公开的多模态理解模型训练方法的又一个实施例的流程图。该多模态理解模型训练方法包括以下步骤:
步骤201,获取第一样本和第二样本。
步骤202,将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型。
在本实施例中,步骤201-202的具体操作已在图1所示的实施例中步骤101-102中进行了详细的介绍,在此不再赘述。
步骤203,将第二多模态信息输入至第一模型,得到第二多模态理解结果。
在本实施例中,多模态理解模型训练方法的执行主体可以将第二多模态信息输入至第一模型,得到第二多模态理解结果。其中,第一模型可以学习得到第二多模态理解结果。
步骤204,基于第二多模态理解结果对第二多模态信息进行标注,得到候选样本。
在本实施例中,上述执行主体可以基于第二多模态理解结果对第二多模态信息进行标注,得到候选样本。
步骤205,将候选样本划分成多个候选样本集合。
在本实施例中,上述执行主体可以将候选样本划分成多个候选样本集合。例如,将候选样本随机划分成多个候选样本集合。又例如,将候选样本平均划分为多个候选样本集合。
步骤206,利用多个候选样本集合分别对第一模型进行训练,以及利用第一样本分别测试各个候选样本集合所对应的训练后的第一模型的性能提升度。
在本实施例中,上述执行主体可以利用多个候选样本集合分别对第一模型进行训练,以及利用第一样本分别测试各个候选样本集合所对应的训练后的第一模型的性能提升度。
对于一个候选样本集合中的候选样本,上述执行主体可以将该候选样本的候选多模态信息输入至第一模型,可以学习得到预测多模态理解结果。基于候选多模态理解结果与预测多模态理解结果的误差,对第一模型的参数进行调整,使得误差足够小,即可得到第二模型。将第一样本的第一多模态信息输入至第二模型。第二模型可以预测得到第一预测多模态理解结果。基于第一多模态理解结果与第一预测多模态理解结果的误差,可以确定第二模型的性能提升度。其中,误差越小,第二模型的性能提升度越高。
步骤207,选取性能提升度高于预设阈值的候选样本集合中的候选样本,作为第三样本。
在本实施例中,上述执行主体可以选取性能提升度高于预设阈值的候选样本集合中的候选样本,作为第三样本。
步骤208,利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
在本实施例中,步骤208的具体操作已在图1所示的实施例中步骤104中进行了详细的介绍,在此不再赘述。
从图2中可以看出,与图1对应的实施例相比,本实施例中的多模态理解模型训练方法突出了样本筛选步骤。由此,本实施例描述的方案通过有监督训练筛选样本,能够筛选出质量较高的样本,进而保证训练出的多模态理解模型的性能。
进一步参考图3,其示出了根据本公开的人机交互对话方法的一个实施例的流程图。该人机交互对话方法包括以下步骤:
步骤301,获取用户输入的多模态信息和用户的对话上下文信息。
在本实施例中,人机交互对话方法的执行主体可以获取用户输入的多模态信息和用户的对话上下文信息。
其中,人机交互对话方法的执行主体可以是提供人机交互服务的设备。例如,人机交互服务器。具体地,人机交互服务器可以在接收到用户终端发送的多模态信息时,通过多模态理解模型理解多模态信息,以与用户终端交互。又例如,在用户终端的计算能力足够强的情况下,上述执行主体可以是用户终端。具体地,用户终端可以在检测到用户输入的多模态信息时,通过多模态理解模型理解多模态信息,并将生成的回复信息呈现给用户。
在该实施例中,用户可以在用户端发起对话请求。具体地,用户可以通过在用户端输入多模态信息以发起对话请求。其中,用户可输入的信息模态可以包括但不限于文本、音频、图片以及视频等等。多模态信息可以包括以上至少两种模态的信息。例如,若用户想要查询某汽车的车型,即可输入文本“查询车型”,以及包含该汽车的图片。
可选的,获取用户输入的多模态信息可以是:获取用户输入的至少一种多模态信息和基于该至少一种多模态信息引申出的其他多模态信息。其中,基于该至少一种多模态信息引申出的其他多模态信息,可以是基于预设算法,对用户输入的该至少一种多模态信息进行解析后拓展出的其他多模态信息。其中可选的,可以将该至少一种多模态信息输入至该预设算法中,该预设算法通过解析,分别获得该至少一种多模态信息对应的特征,得到至少一个特征,并获得该至少一个特征中的重合特征,基于重合特征得出上述其他多模态信息。其中,其他多模态信息可以是与至少一种多模态信息模态不同的信息,也可以是与至少一种多模态信息模态相同、但是对至少一种多模态信息进一步优化(比如,对至少一种多模态信息的输入错误进行更正、图片清晰度进行优化等)的信息。可选的,在获得引申出的其他多模态信息后,可以在界面上进行展示,在获得用户的第一目标指令之后,确定所述其他多模态信息为准确的多模态信息,并将其作为用户输入的多模态信息;在获得用户的第二目标指令之后,确定所述其他多模态信息为非准确的多模态信息,仅将所述至少一种多模态信息作为用户输入的多模态信息。该方式可以自动扩展多模态信息,进一步降低对用户自身能力的要求,并且也提升了用户输入多模态信息的效率,可以有效提升用户使用体验。
此外,为了提高对用户需求理解的准确度,上述执行主体还可以获取当前问话前面若干条人机交互的对话信息,即,人机交互的对话上下文信息。其中,人机交互的对话上下文信息可以反应整个多轮对话过程的详细信息,包括用户主动发起的询问内容以及系统回复内容。
需要说明的是,用户在智能客服对话系统中发起的对话通常属于任务式对话,即,为了实现某一个任务,按照一定逻辑组合组织对话的一种对话引擎。
步骤302,利用多模态理解模型对多模态信息进行理解,得到多模态理解结果。
在本实施例中,上述执行主体可以利用多模态理解模型对多模态信息进行理解,得到多模态理解结果。
这里,多模态理解模型可以是通过机器学习方法利用大量样本进行训练而得到的模型,用于理解多模态信息。其中,多模态理解模型是采用图1或图2所示的方法训练得到的,这里不再赘述。
本公开实施例中,多模态理解模型能够对多模态信息中的意图进行理解,进而使用对应的引擎搜索得到用户需求的信息,即,多模态理解结果。其中,用户明确表示的想要办理的业务和意愿可通过意图进行创建。例如,车型识别是一个意图,我要租车也是一个意图。
本公开实施例中,根据用户输入的信息的模态,可以将输入信息分发至不同的理解模型。具体地,一种模态对应一个理解模型集合,用于对该种模态的信息进行理解。理解模型集合中的一个理解模型对应一种任务。例如,图片由图片理解模型集合进行处理。车型识别对话请求由车型识别任务对应的图片理解模型进行处理,植物识别对话请求由植物识别任务对应的图片识别模型进行处理。
步骤303,基于对话上下文信息和多模态理解结果,生成回复信息。
在本实施例中,上述执行主体可以基于对话上下文信息和多模态理解结果,生成回复信息。
通常,根据对话上下文信息可以将多模态理解结果组织成自然语言,即可得到回复信息。
步骤304,输出回复信息。
在本实施例中,上述执行主体可以输出回复信息给用户。此时,本轮对话结束。若用户还有其他需求,可以继续输入新的多模态信息。此时,返回步骤301,继续执行所述人机对话方法。
需要说明的是,业务运营人员在任务式对话平台创建会话技能,编排对话流程,将多模态理解模型等编排至该会话技能中。若用户发起对话请求,可以使用会话技能中的多模态理解模型,并通过拖拉拽等在任务式对话画布中,按照一定逻辑组织对话,完成对话编排。
本公开实施例提供的人机交互对话方法,可理解多模态信息,进行跨模态对话,丰富了智能客服系统或对话系统人机交互的多样性,解决文本表征信息差的问题。并且,支持用户直接输入多模态信息,无需用户对其人工理解转化成文本,降低人机交互的人力成本。
进一步参考图4,其示出了根据本公开的人机交互对话方法的又一个实施例的流程图。该人机交互对话方法包括以下步骤:
步骤401,获取用户输入的第一模态信息。
在本实施例中,人机交互对话方法的执行主体可以获取用户输入的第一模态信息。
在该实施例中,用户可以在用户端发起对话请求。具体地,用户可以通过在用户端输入第一模态信息以发起对话请求。其中,第一模态信息可以包括但不限于文本、音频、图片以及视频等等。例如,用户输入文本“查询车型”。
步骤402,若基于第一模态信息进行理解得到的结果没有包含目标意图信息,获取用户输入的第二模态信息。
在本实施例中,上述执行主体可以将第一模态信息输入至多模态理解模型,得到第一模态理解结果。若第一模态理解结果包含目标意图信息,则直接输出回复信息。若第一模态理解结果没有包含目标意图信息,则需要获取用户输入第二模态信息。其中,目标意图信息可以表征用户的实际意图。即,基于目标意图信息可以在对应的引擎搜索得到用户需求的信息。
例如,用户输入文本“查询车型”,对文本进行意图理解,确定用户想要查询汽车的车型,但是用户并未给出该汽车的信息,因此无法表征用户的实际意图,在引擎中无法搜索到用户需求的信息。此时,若仅基于用户输入文本进行理解是无法得到针对性的回复信息,即,回复信息为空或者特定的提示信息。又例如,用户输入文本“查询某某型号汽车的价格”,对文本进行意图理解,确定用户想要查询某某型号汽车的价格,由于包含汽车的具体型号,因此能够表征用户的实际意图,则直接在引擎中搜索该型号的汽车的价格,即可得到针对性的回复信息,并返回给用户。
在该实施例中,第二模态信息可以是在基于第一模态信息进行理解得到的结果没有包含目标意图信息的情况下,引导用户输入的。第二模态信息可以包括但不限于文本、音频、图片以及视频等等。例如,用户输入文本“查询车型”,由于用户并未给出想要查询的汽车的信息,可以引导用户输入想要查询的汽车的图片。用户可以基于引导输入包含该汽车的图片。
在本实施例的一些可选的实现方式中,若基于第一模态信息和第二模态信息进行理解得到的结果没有包含目标意图信息,可以继续获取用户输入的其他模态信息,直至满足预设的输入结束条件。在用户已经输入的信息无法表征用户的实际意图的情况下,引导用户输入其他模态信息,从而能够更好地获取用户的实际意图,进而给出准确度较高的回复。其中,预设的输入结束条件可以包括但不限于基于用户输入的所有模态信息进行理解得到的回复信息不为空、用户输入次数达到预设次数阈值、用户输入操作时长达到预设时长阈值或用户选择跳过等。具体地,上述执行主体可以将第一模态信息和第二模态信息输入至多模态理解模型,得到多模态理解结果。若基于对话上下文信息和多模态理解结果能够生成针对性的回复信息,则说明基于第一模态信息和第二模态信息进行理解得到的结果包含目标意图信息,则直接输出回复信息。若基于对话上下文信息和多模态理解结果无法生成针对性的回复信息,则说明基于第一模态信息和第二模态信息进行理解得到的结果没有包含目标意图信息,需要获取用户输入的第三模态信息。如此循环,直至满足预设的输入结束条件。步骤403,获取用户的对话上下文信息。
步骤404,利用多模态理解模型对第一模态信息和第二模态信息进行理解,得到多模态理解结果。
步骤405,基于对话上下文信息和多模态理解结果,生成回复信息。
步骤406,输出回复信息。
在本实施例中,步骤403-406的具体操作已在图3所示的实施例中步骤301-304中进行了详细的介绍,在此不再赘述。
从图4中可以看出,与图3对应的实施例相比,本实施例中的人机交互对话方法突出了多模态信息获取步骤。由此,本实施例描述的方案在用户输入的第一模态信息无法表征用户的实际意图的情况下,引导用户输入第二模态信息,从而能够更好地获取用户的实际意图,进而给出准确度较高的回复。
进一步参考图5,其示出了根据本公开的人机交互对话方法的另一个实施例的流程图。该人机交互对话方法包括以下步骤:
步骤501,接收用户输入的文本信息。
在本实施例中,人机交互对话方法的执行主体可以接收用户输入的文本信息。通常,用户可以在用户端发起对话请求。具体地,用户可以通过在用户端输入文本以发起对话请求。例如,用户输入文本“查询车型”。
步骤502,对文本信息进行意图理解,得到文本理解结果。
在本实施例中,上述执行主体可以对文本信息进行意图理解,得到文本理解结果。
其中,意图可以创建用户明确表示的想要办理的业务和意愿。例如,用户输入文本“查询车型”,其中,“查询车型”是一个意图信息。
在一些实施例中,在对文本信息进行意图理解的同时,上述执行主体还可以对文本信息进行实体理解。这样,文本理解结果中既包含意图信息又包含实体信息。实体信息可以在步骤507中辅助生成回复信息,提高生成的回复信息的准确度。其中,实体是对一类对象的抽象,每个对象作为实体的一个实体值,从而可以在对话过程中被识别。例如,用户输入文本“查询车型”。对文本进行实体理解,得到“车型”是一个实体信息。假如对文件进行意图理解时,得到的意图信息不完整,仅得到“查询”是一个意图信息。若仅基于该意图信息,无法确定用户想要查询什么,进而无法生成用户需求的回复信息。但是通过结合实体信息,可以确定用户想要查询的是车型,进而能够生成用户需求的回复信息。
步骤503,若文本理解结果没有包含目标意图信息,向用户发送引导信息。
在本实施例中,上述执行主体可以若文本理解结果包含目标意图信息,则说明文本信息能够表征用户的实际意图,则直接输出回复信息。若文本理解结果没有包含目标意图信息,则说明文本信息无法表征用户的实际意图,需要获取用户输入富媒体信息。此时,上述执行主体可以向用户发送引导信息。其中,引导信息可以用于引导用户输入富媒体信息。通常是在文本信息无法表征用户的实际意图的情况下,引导用户进行再次输入操作的信息。
例如,用户输入文本“查询车型”,对文本进行实体理解和意图理解,确定用户想要查询汽车的车型,但是用户并未给出该汽车的信息,因此无法表征用户的实际意图。又例如,用户输入文本“查询某某型号汽车的价格”,对文本进行实体理解和意图理解,确定用户想要查询某某型号汽车的价格,由于包含汽车的具体型号,因此能够表征用户的实际意图,则直接在引擎中搜索该型号的汽车的价格,并生成回复内容返回给用户。
步骤504,获取用户基于引导信息输入的富媒体信息。
在本实施例中,用户在引导信息的引导下可以输入富媒体信息。此时,上述执行主体可以获取用户基于引导信息输入的富媒体信息。
其中,富媒体信息息可以包括但不限于音频、图片以及视频等等。例如,用户输入文本“查询车型”,由于用户并未给出想要查询的汽车的信息,可以引导用户输入想要查询的汽车的图片。用户可以基于引导信息输入包含该汽车的图片。
由于富媒体信息通常较大,直接传递速度较慢。通过URL(Universal ResourceLocator,统一资源定位符)可以实现在智能客服对话系统中保存或透传富媒体信息。具体地,用户输入的富媒体信息可以上传至文件服务器。文件服务器将富媒体信息解析成唯一对应的URL,并传递到对话编排流程中。随后,URL可以被透传至上述执行主体。上述执行主体可以接收URL,并基于URL从文件服务器下载富媒体信息。
步骤505,获取用户的对话上下文信息。
在本实施例中,步骤505的具体操作已在图3所示的实施例中步骤301中进行了详细的介绍,在此不再赘述。
步骤506,将富媒体信息输入至与富媒体信息的模态对应的理解模型,得到富媒体解结果。
在本实施例中,上述执行主体可以将富媒体信息输入至与富媒体信息的模态对应的理解模型,得到富媒体理解结果。
这里,富媒体理解模型可以是通过机器学习方法利用大量训练样本进行训练而得到的模型,用于理解富媒体信息。其中,富媒体理解模型是采用图1或图2所示的方法训练得到的,这里不再赘述。
在本公开实施例中,富媒体理解模型能够对富媒体信息中的意图进行理解,进而使用对应的引擎搜索得到用户需求的信息,即,富媒体信息的理解结果。其中,用户明确表示的想要办理的业务和意愿可通过意图进行创建。例如,车型识别是一个意图信息,我要租车也是一个意图信息。
在本公开实施例中,一种富媒体对应一个理解模型集合,用于对该种富媒体的信息进行理解。理解模型集合中的一个理解模型对应一种任务。例如,图片由图片理解模型集合进行处理。车型识别对话请求由车型识别任务对应的图片理解模型进行处理,植物识别对话请求由植物识别任务对应的图片识别模型进行处理。
在一些实施例中,若富媒体信息是图片模态,可以将图片输入至图片理解模型,得到图片理解结果。若富媒体信息是视频模态,可以将视频输入至视频理解模型,得到视频理解结果。此外,为了降低模型训练工作量,可以不配置视频理解模型。对于视频模态的富媒体信息,可以从视频中抽取关键图片,将关键图片输入至图片理解模型,即可得到视频理解结果。
步骤507,基于对话上下文信息和富媒体理解结果,生成回复信息。
步骤508,输出回复信息。
在本实施例中,步骤507-508的具体操作已在图3所示的实施例中步骤303-304中进行了详细的介绍,在此不再赘述。
从图5中可以看出,与图3对应的实施例相比,本实施例中的人机交互对话方法突出多模态信息获取步骤。由此,本实施例描述的方案在用户输入的文本信息无法表征用户的实际意图的情况下,引导用户输入富媒体信息,可综合理解文本、音频、图片以及视频等多媒体表征的信息,可进行跨模态对话。
为了便于理解,图6示出了可以实现本公开实施例的人机交互对话方法的场景图。如图6所示,用户可以在智能客服对话系统中寻求帮助、求解问题、投诉反馈和闲聊。业务运营人员需要在任务式对话平台创建会话技能,编排对话流程,将视觉模型和音频模型等编排至该会话技能中。用户可以在用户端发起对话请求,输入文本Query。文本Query经任务式对话系统实体理解、意图理解以及编排流程处理后,判定回复内容由何种引擎生成。如当前文本Query能反应实际的用户意图,则基于编排流程产生默认回复话术或者使用表格问答产生回复内容。如当前文本Query无法表征实际的用户意图,引导补充图片、音频或者视频等内容。用户补充图片、音频或者视频信息后,富媒体解析服务将图片、音频或者视频上传至文件服务器,并且将代表该图片唯一性的URL传递到任务式对话编排流程中。任务式对话接收到媒体URL后,将对话上下文以及媒体URL透传至跨模态引擎。跨模态对话引擎根据URL信息下载对应的媒体内容,并且根据媒体介质类型,使用不同模态模型理解用户意图。跨模态引擎综合对话上下文对话信息以及本次理解结果,产生回复内容至用户。
进一步参考图7,作为对上述各图所示方法的实现,本公开提供了一种多模态理解模型训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的多模态理解模型训练装置700可以包括:样本获取模块701、第一训练模块702、样本标注模块703和第二训练模块704。其中,样本获取模块701,被配置成获取第一样本和第二样本,其中,第一样本包括第一多模态信息和第一多模态理解结果,第二样本包括第二多模态信息;第一训练模块702,被配置成将第一多模态信息作为初始模型的输入,将第一多模态理解结果作为初始模型的输出,对初始模型进行训练,得到第一模型;样本标注模块703,被配置成利用第一模型对第二样本进行标签标注,得到第三样本;第二训练模块704,被配置成利用第一样本和第三样本对初始模型进行训练,得到多模态理解模型。
在本实施例中,多模态模型训练装置700中:样本获取模块701、第一训练模块702、样本标注模块703和第二训练模块704的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤101-104的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,样本标注模块703包括:样本理解子模块,被配置成将第二多模态信息输入至第一模型,得到第二多模态理解结果;样本标注子模块,被配置成基于第二多模态理解结果对第二多模态信息进行标注,得到候选样本;样本筛选子模块,被配置成从候选样本中筛选出第三样本。
在本实施例的一些可选的实现方式中,样本筛选子模块进一步被配置成:将候选样本划分成多个候选样本集合;利用多个候选样本集合分别对第一模型进行训练,以及利用第一样本分别测试各个候选样本集合所对应的训练后的第一模型的性能提升度;选取性能提升度高于预设阈值的候选样本集合中的候选样本,作为第三样本。
进一步参考图8,作为对上述各图所示方法的实现,本公开提供了一种人机交互对话装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的人机交互对话装置800可以包括:信息获取模块801、信息理解模块802、信息生成模块803和信息输出模块804。其中,信息获取模块801,被配置成获取用户输入的多模态信息和用户的对话上下文信息;信息理解模块802,被配置成利用多模态理解模型对多模态信息进行理解,得到多模态理解结果,其中,多模态理解模型是采用图7所示的装置训练得到的;信息生成模块803,被配置成基于对话上下文信息和多模态理解结果,生成回复信息;信息输出模块804,被配置成输出回复信息。
在本实施例中,人机交互对话装置800中:信息获取模块801、信息理解模块802、信息生成模块803和信息输出模块804的具体处理及其所带来的技术效果可分别参考图3对应实施例中的步骤301-304的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,信息获取模块801包括:第一获取子模块,被配置成获取用户输入的第一模态信息;第二获取子模块,被配置成若基于第一模态信息进行理解得到的结果没有包含目标意图信息,获取用户输入的第二模态信息。
在本实施例的一些可选的实现方式中,信息获取模块801还包括:第三获取子模块,被配置成若基于第一模态信息和第二模态信息进行理解得到的结果没有包含目标意图信息,继续获取用户输入的其他模态信息,直至满足预设的输入结束条件。
在本实施例的一些可选的实现方式中,第一获取子模块包括:信息接收单元,被配置成接收用户输入的文本信息;以及第二获取子模块包括:信息理解单元,被配置成对文本信息进行意图理解,得到文本理解结果;信息发送单元,被配置成若文本理解结果没有包含目标意图信息,向用户发送引导信息,其中,引导信息用于引导用户输入富媒体信息;信息获取单元,被配置成获取用户基于引导信息输入的富媒体信息。
在本实施例的一些可选的实现方式中,信息获取单元进一步被配置成:接收富媒体信息对应的统一资源定位符;基于统一资源定位符从文件服务器下载富媒体信息。
在本实施例的一些可选的实现方式中,信息理解模块802包括:信息理解子模块,被配置成将富媒体信息输入至与富媒体信息的模态对应的理解模型,得到富媒体理解结果。
在本实施例的一些可选的实现方式中,信息理解子模块进一步被配置成:若富媒体信息是图片模态,将富媒体信息输入至图片理解模型,得到图片理解结果。
在本实施例的一些可选的实现方式中,信息理解子模块进一步被配置成:若富媒体信息是视频模态,从富媒体信息中抽取关键图片;将关键图片输入至图片理解模型,得到视频理解结果。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如人机交互对话方法或多模态理解模型训练方法。例如,在一些实施例中,人机交互对话方法或多模态理解模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的人机交互对话方法或多模态理解模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行人机交互对话方法或多模态理解模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少两个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少两个输入装置、和至少两个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少两个输入装置、和该至少两个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (24)

1.一种人机交互对话方法,包括:
获取用户输入的多模态信息和所述用户的对话上下文信息;
利用多模态理解模型对所述多模态信息进行理解,得到多模态理解结果;
基于所述对话上下文信息和所述多模态理解结果,生成回复信息;
输出所述回复信息;
其中,所述多模态理解模型的训练步骤包括:
获取第一样本和第二样本,其中,所述第一样本包括第一多模态信息和第一多模态理解结果,所述第二样本包括第二多模态信息;
将所述第一多模态信息作为初始模型的输入,将所述第一多模态理解结果作为所述初始模型的输出,对所述初始模型进行训练,得到第一模型;
利用所述第一模型对所述第二样本进行标签标注,得到第三样本;
利用所述第一样本和所述第三样本对所述初始模型进行训练,得到所述多模态理解模型。
2.根据权利要求1所述的方法,其中,所述获取用户输入的多模态信息,包括:
获取所述用户输入的第一模态信息;
若基于所述第一模态信息进行理解得到的结果没有包含目标意图信息,获取所述用户输入的第二模态信息。
3.根据权利要求2所述的方法,其中,所述获取用户输入的多模态信息,还包括:
若基于所述第一模态信息和所述第二模态信息进行理解得到的结果没有包含目标意图信息,继续获取所述用户输入的其他模态信息,直至满足预设的输入结束条件。
4.根据权利要求2所述的方法,其中,所述获取所述用户输入的第一模态信息,包括:
接收所述用户输入的文本信息;以及
所述若基于所述第一模态信息进行理解得到的结果没有包含目标意图信息,获取所述用户输入的第二模态信息,包括:
对所述文本信息进行意图理解,得到文本理解结果;
若所述文本理解结果没有包含目标意图信息,向所述用户发送引导信息,其中,所述引导信息用于引导用户输入富媒体信息;
获取所述用户基于所述引导信息输入的富媒体信息。
5.根据权利要求4所述的方法,其中,所述获取所述用户基于所述引导信息输入的富媒体信息,包括:
接收所述富媒体信息对应的统一资源定位符;
基于所述统一资源定位符从文件服务器下载所述富媒体信息。
6.根据权利要求5所述的方法,其中,所述利用多模态理解模型对所述多模态信息进行理解,得到多模态理解结果,包括:
将所述富媒体信息输入至与所述富媒体信息的模态对应的理解模型,得到富媒体理解结果。
7.根据权利要求6所述的方法,其中,所述将所述富媒体信息输入至与所述富媒体信息的模态对应的理解模型,得到富媒体理解结果,包括:
若所述富媒体信息是图片模态,将所述富媒体信息输入至图片理解模型,得到图片理解结果。
8.根据权利要求6所述的方法,其中,所述将所述富媒体信息输入至与所述富媒体信息的模态对应的理解模型,得到富媒体理解结果,包括:
若所述富媒体信息是视频模态,从所述富媒体信息中抽取关键图片;
将所述关键图片输入至图片理解模型,得到视频理解结果。
9.一种多模态理解模型训练方法,包括:
获取第一样本和第二样本,其中,所述第一样本包括第一多模态信息和第一多模态理解结果,所述第二样本包括第二多模态信息;
将所述第一多模态信息作为初始模型的输入,将所述第一多模态理解结果作为所述初始模型的输出,对所述初始模型进行训练,得到第一模型;
利用所述第一模型对所述第二样本进行标签标注,得到第三样本;
利用所述第一样本和所述第三样本对所述初始模型进行训练,得到多模态理解模型。
10.根据权利要求9所述的方法,其中,所述利用所述第一模型对所述第二样本进行标签标注,得到第三样本,包括:
将所述第二多模态信息输入至所述第一模型,得到第二多模态理解结果;
基于所述第二多模态理解结果对所述第二多模态信息进行标注,得到候选样本;
从所述候选样本中筛选出所述第三样本。
11.根据权利要求10所述的方法,其中,所述从所述候选样本中筛选出所述第三样本,包括:
将所述候选样本划分成多个候选样本集合;
利用所述多个候选样本集合分别对所述第一模型进行训练,以及利用所述第一样本分别测试各个候选样本集合所对应的训练后的第一模型的性能提升度;
选取性能提升度高于预设阈值的候选样本集合中的候选样本,作为所述第三样本。
12.一种人机交互对话装置,包括:
信息获取模块,被配置成获取用户输入的多模态信息和所述用户的对话上下文信息;
信息理解模块,被配置成利用多模态理解模型对所述多模态信息进行理解,得到多模态理解结果;
信息生成模块,被配置成基于所述对话上下文信息和所述多模态理解结果,生成回复信息;
信息输出模块,被配置成输出所述回复信息;
其中,所述装置还包括:
样本获取模块,被配置成获取第一样本和第二样本,其中,所述第一样本包括第一多模态信息和第一多模态理解结果,所述第二样本包括第二多模态信息;
第一训练模块,被配置成将所述第一多模态信息作为初始模型的输入,将所述第一多模态理解结果作为所述初始模型的输出,对所述初始模型进行训练,得到第一模型;
样本标注模块,被配置成利用所述第一模型对所述第二样本进行标签标注,得到第三样本;
第二训练模块,被配置成利用所述第一样本和所述第三样本对所述初始模型进行训练,得到多模态理解模型。
13.根据权利要求12所述的装置,其中,所述信息获取模块包括:
第一获取子模块,被配置成获取所述用户输入的第一模态信息;
第二获取子模块,被配置成若基于所述第一模态信息进行理解得到的结果没有包含目标意图信息,获取所述用户输入的第二模态信息。
14.根据权利要求13所述的装置,其中,所述信息获取模块还包括:
第三获取子模块,被配置成若基于所述第一模态信息和所述第二模态信息进行理解得到的结果没有包含目标意图信息,继续获取所述用户输入的其他模态信息,直至满足预设的输入结束条件。
15.根据权利要求13所述的装置,其中,所述第一获取子模块包括:
信息接收单元,被配置成接收所述用户输入的文本信息;以及
所述第二获取子模块包括:
信息理解单元,被配置成对所述文本信息进行意图理解,得到文本理解结果;
信息发送单元,被配置成若所述文本理解结果没有包含目标意图信息,向所述用户发送引导信息,其中,所述引导信息用于引导用户输入富媒体信息;
信息获取单元,被配置成获取所述用户基于所述引导信息输入的富媒体信息。
16.根据权利要求15所述的装置,其中,所述信息获取单元进一步被配置成:
接收所述富媒体信息对应的统一资源定位符;
基于所述统一资源定位符从文件服务器下载所述富媒体信息。
17.根据权利要求16所述的装置,其中,所述信息理解模块包括:
信息理解子模块,被配置成将所述富媒体信息输入至与所述富媒体信息的模态对应的理解模型,得到富媒体理解结果。
18.根据权利要求17所述的装置,其中,所述信息理解子模块进一步被配置成:
若所述富媒体信息是图片模态,将所述富媒体信息输入至图片理解模型,得到图片理解结果。
19.根据权利要求17所述的装置,其中,所述信息理解子模块进一步被配置成:
若所述富媒体信息是视频模态,从所述富媒体信息中抽取关键图片;
将所述关键图片输入至图片理解模型,得到视频理解结果。
20.一种多模态理解模型训练装置,包括:
样本获取模块,被配置成获取第一样本和第二样本,其中,所述第一样本包括第一多模态信息和第一多模态理解结果,所述第二样本包括第二多模态信息;
第一训练模块,被配置成将所述第一多模态信息作为初始模型的输入,将所述第一多模态理解结果作为所述初始模型的输出,对所述初始模型进行训练,得到第一模型;
样本标注模块,被配置成利用所述第一模型对所述第二样本进行标签标注,得到第三样本;
第二训练模块,被配置成利用所述第一样本和所述第三样本对所述初始模型进行训练,得到多模态理解模型。
21.根据权利要求20所述的装置,其中,所述样本标注模块包括:
样本理解子模块,被配置成将所述第二多模态信息输入至所述第一模型,得到第二多模态理解结果;
样本标注子模块,被配置成基于所述第二多模态理解结果对所述第二多模态信息进行标注,得到候选样本;
样本筛选子模块,被配置成从所述候选样本中筛选出所述第三样本。
22.根据权利要求21所述的装置,其中,所述样本筛选子模块进一步被配置成:
将所述候选样本划分成多个候选样本集合;
利用所述多个候选样本集合分别对所述第一模型进行训练,以及利用所述第一样本分别测试各个候选样本集合所对应的训练后的第一模型的性能提升度;
选取性能提升度高于预设阈值的候选样本集合中的候选样本,作为所述第三样本。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法或权利要求9-11中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法或权利要求9-11中任一项所述的方法。
CN202211492761.4A 2022-11-25 2022-11-25 人机交互对话方法、装置以及设备 Active CN115905490B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211492761.4A CN115905490B (zh) 2022-11-25 2022-11-25 人机交互对话方法、装置以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211492761.4A CN115905490B (zh) 2022-11-25 2022-11-25 人机交互对话方法、装置以及设备

Publications (2)

Publication Number Publication Date
CN115905490A CN115905490A (zh) 2023-04-04
CN115905490B true CN115905490B (zh) 2024-03-22

Family

ID=86485725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211492761.4A Active CN115905490B (zh) 2022-11-25 2022-11-25 人机交互对话方法、装置以及设备

Country Status (1)

Country Link
CN (1) CN115905490B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108340A (zh) * 2017-11-28 2018-06-01 北京光年无限科技有限公司 用于智能机器人的对话交互方法及系统
CN113792196A (zh) * 2021-09-10 2021-12-14 北京京东尚科信息技术有限公司 基于多模态对话状态表示的人机交互的方法和装置
CN114416934A (zh) * 2021-12-24 2022-04-29 北京百度网讯科技有限公司 多模态的对话生成模型的训练方法、装置及电子设备
CN114625855A (zh) * 2022-03-22 2022-06-14 北京百度网讯科技有限公司 用于生成对话信息的方法及装置、设备和介质
CN114969282A (zh) * 2022-05-05 2022-08-30 迈吉客科技(北京)有限公司 基于富媒体知识图谱多模态情感分析模型的智能交互方法
CN115080707A (zh) * 2021-03-12 2022-09-20 阿里巴巴新加坡控股有限公司 对话生成模型的训练方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257241B2 (en) * 2016-12-21 2019-04-09 Cisco Technology, Inc. Multimodal stream processing-based cognitive collaboration system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108340A (zh) * 2017-11-28 2018-06-01 北京光年无限科技有限公司 用于智能机器人的对话交互方法及系统
CN115080707A (zh) * 2021-03-12 2022-09-20 阿里巴巴新加坡控股有限公司 对话生成模型的训练方法、装置、电子设备及存储介质
CN113792196A (zh) * 2021-09-10 2021-12-14 北京京东尚科信息技术有限公司 基于多模态对话状态表示的人机交互的方法和装置
CN114416934A (zh) * 2021-12-24 2022-04-29 北京百度网讯科技有限公司 多模态的对话生成模型的训练方法、装置及电子设备
CN114625855A (zh) * 2022-03-22 2022-06-14 北京百度网讯科技有限公司 用于生成对话信息的方法及装置、设备和介质
CN114969282A (zh) * 2022-05-05 2022-08-30 迈吉客科技(北京)有限公司 基于富媒体知识图谱多模态情感分析模型的智能交互方法

Also Published As

Publication number Publication date
CN115905490A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
CN107657017B (zh) 用于提供语音服务的方法和装置
KR101909807B1 (ko) 메시지 입력 방법 및 장치
US10771406B2 (en) Providing and leveraging implicit signals reflecting user-to-BOT interaction
CN108121800B (zh) 基于人工智能的信息生成方法和装置
CN111428010B (zh) 人机智能问答的方法和装置
CN110019742B (zh) 用于处理信息的方法和装置
CN110187780B (zh) 长文本预测方法、装置、设备和存储介质
CN113806588B (zh) 搜索视频的方法和装置
CN108268450B (zh) 用于生成信息的方法和装置
US11749255B2 (en) Voice question and answer method and device, computer readable storage medium and electronic device
CN116521841B (zh) 用于生成回复信息的方法、装置、设备及介质
CN111695360B (zh) 语义分析方法、装置、电子设备及存储介质
CN112507103A (zh) 任务型对话及模型训练方法、装置、设备和存储介质
CN114637843A (zh) 数据处理方法、装置、电子设备及存储介质
CN115033677A (zh) 基于对话机器人的事件处理方法、装置、设备和介质
CN110059172B (zh) 基于自然语言理解的推荐答案的方法和装置
CN117421398A (zh) 人机交互方法、装置、设备以及存储介质
CN112069786A (zh) 文本信息处理方法、装置、电子设备及介质
CN115905490B (zh) 人机交互对话方法、装置以及设备
CN112447173A (zh) 语音交互方法、装置及计算机存储介质
CN113360590B (zh) 兴趣点信息的更新方法、装置、电子设备及存储介质
CN109857838B (zh) 用于生成信息的方法和装置
CN112632241A (zh) 智能会话的方法、装置、设备和计算机可读介质
CN112737919A (zh) 即时消息的发送方法和装置
CN111949776A (zh) 一种用户标签评估的方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant