CN110543552A - 对话交互方法、装置及电子设备 - Google Patents
对话交互方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110543552A CN110543552A CN201910845715.XA CN201910845715A CN110543552A CN 110543552 A CN110543552 A CN 110543552A CN 201910845715 A CN201910845715 A CN 201910845715A CN 110543552 A CN110543552 A CN 110543552A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- answer
- candidate
- corpus
- candidate answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种对话交互方法、装置及电子设备,涉及人工智能技术领域,该方法包括:获取对话操作对应的候选回答集;其中,候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答;将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型;其中,排序模型为基于对话语料样本训练得到的;通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度;基于每个候选回答的匹配度生成候选回答的排序结果;按照排序结果回复对话操作。本发明能够有效改善人机对话效果,提升用户满意度。
Description
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种对话交互方法、装置及电子设备。
背景技术
人机自动对话是人工智能领域的重要应用,目前多采用自然语言处理技术实现自动对话。在人机对话技术中,通常是首先设置多个匹配子模型,不同子模型用于计算不同方式产生的候选回答与用户问题之间的匹配度;然后将多个子模型的匹配度和预设的与回答有关的人工特征输入至基于GBDT(Gradient Boosting Decision Tree,梯度提升决策树)或Xgboost的树模型,通过树模型输出各候选回答的得分;最后根据得分对候选回答进行排序,挑选出得分最高的回答返回给用户。
但是,发明人经研究发现,在上述方式中,由于不同子模型计算匹配度的过程并不统一,子模型之间的差异性导致候选回答的排序结果不准确,致使给用户的回答难以让用户满意;同时,多个子模型的资源消耗过大且部署繁琐,导致回答的排序结果的生成效率较低,无法及时响应用户,综合导致人机对话效果不佳,用户体验较差。
发明内容
本发明的目的在于提供一种对话交互方法、装置及电子设备,能够有效改善人机对话效果,提升用户满意度。
本发明提供一种对话交互方法,该方法包括:获取对话操作对应的候选回答集;其中,候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答;将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型;其中,排序模型为基于对话语料样本训练得到的;通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度;基于每个候选回答的匹配度生成候选回答的排序结果;按照排序结果回复对话操作。
进一步的,基于每个候选回答的匹配度生成候选回答的排序结果的步骤,包括:根据候选回答的匹配度大小对每个候选回答进行排序,得到初始排序结果;根据预设的处理规则对初始排序结果进行顺序调整,得到候选回答的最终排序结果;其中,预设的处理规则包括以下中的一种或多种:候选回答的来源优先级、候选回答的长度、候选回答与对话问题的重复度、候选回答的来源占比、候选回答中包含的词语序列的联合概率。
进一步的,当预设的处理规则包括候选回答的来源优先级时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,包括:如果候选回答集中包括多个候选回答,获取每个候选回答携带的来源标识;其中,来源标识包括网络对话检索库标识、人工对话检索库标识和生成式回答标识中的一种或多种;根据候选回答的来源优先级对每个候选回答携带的来源标识进行排序;按照来源标识的排序结果对初始排序结果进行顺序调整。
进一步的,将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型的步骤,包括:如果对话问题包括待答复问题和待答复问题之前的背景对话,采用预设拼接符号将背景对话和待答复问题分别与各个候选回答进行拼接,得到拼接对话;将拼接对话输入至预先训练得到的排序模型。
进一步的,通过排序模型计算对话问题和候选回答的匹配度的步骤,包括:根据拼接对话中的字符生成矩阵;其中,矩阵中的元素为字符对应的字向量;通过排序模型对矩阵进行运算,得到对话问题和候选回答的匹配度。
进一步的,按照排序结果回复对话操作的步骤,包括:将排在首位的候选回答作为目标回答;以目标回答对应的文字和/或语音回复对话操作。
进一步的,排序模型的训练过程包括:采集对话语料样本;其中,对话语料样本包括单轮对话语料和多轮对话语料;将多轮对话语料拆解为多个子对话语料;子对话语料中包含至少一轮上下文对话;基于轮对话语料和子对话语料得到正样本对话语料和负样本对话语料;利用正样本对话语料和负样本对话语料训练二分类模型,得到排序模型。
进一步的,采集对话语料样本的步骤,包括:通过网络爬虫获取网络对话;对网络对话进行数据清洗和数据质量标注,得到对话语料样本。
进一步的,将多轮对话语料拆解为多个子对话语料的步骤,包括:将多轮对话语料中首轮对话的回答作为起始拆解节点,对多轮对话语料中位于起始拆解节点之后的对话进行拆解,得到多个拆解节点;对于每个拆解节点,均将该拆解节点与该拆解节点之前的对话确定为子对话语料;子对话语料的数量与拆解节点的数量相等。
进一步的,基于轮对话语料和子对话语料得到正样本对话语料和负样本对话语料的步骤,包括:对单轮对话语料和子对话语料进行采样,得到正样本对话语料;在单轮对话语料和子对话语料中任意选取一句结尾回答;采用任意选取的结尾回答替换正样本对话语料中的原始回答,得到负样本对话语料。
进一步的,上述对话交互方法应用于配置有交互式用户接口的聊天机器人,交互式用户接口包括:聊天操作界面和/或语音采集器。
本发明提供一种对话交互装置,该装置包括:回答获取模块,用于获取对话操作对应的候选回答集;其中,候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答;模型输入模块,用于将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型;其中,排序模型为基于对话语料样本训练得到的;匹配度计算模块,用于通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度;排序模块,用于基于每个候选回答的匹配度生成候选回答的排序结果;回复模块,用于按照排序结果回复对话操作。
本发明提供一种电子设备,其中,包括:处理器和存储装置;存储装置上存储有计算机程序,计算机程序在被处理器运行时执行如上任一项所述的方法。
本发明提供一种计算机可读存储介质,其中,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行如上任一项所述方法的步骤。
本发明实施例提供的上述对话交互方法、装置及电子设备,能够获取对话操作对应的候选回答集;将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型;通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度;基于每个候选回答的匹配度生成候选回答的排序结果;按照排序结果回复对话操作。相对于现有通过多个子模型分别计算问题与每个回答的匹配度的方式,本实施例上述这种将对话操作对应的候选回答集统一输入排序模型,并通过排序模型直接计算对话问题与每个候选回答的匹配度的方式,不但可以简化模型的部署,有效提升了排序结果的生成效率,还可以避免现有技术中存在的对话问题与各候选回答在计算匹配度过程中存在的差异性,也即提高了匹配度计算过程的一致性,从而有效提高了回答排序结果的准确性。综上,本实施例提供的人机交互方法能够较为及时准确地响应用户,较好地改善了人机对话效果,提升了用户满意度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的对话交互方法流程图;
图2为本发明实施例提供的排序模型训练方法流程图;
图3为本发明实施例提供的排序模型对候选答案进行排序的示意图;
图4为本发明实施例提供的对话交互方法装置的结构框图;
图5为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有的对话交互方法难以及时响应用户,而且回答准确率较低,本发明实施例提供了一种对话交互方法、装置及电子设备,能够较为及时准确地响应用户,较好地改善人机对话效果,提升用户满意度。该技术可以应用于手机、智能手表、计算机、聊天机器人、车辆等配置有交互式用户接口并可实现对话交互的电子设备上。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种对话交互方法进行详细介绍。
参照图1所示的对话交互方法,主要包括如下步骤S102至步骤S110:
步骤S102,获取对话操作对应的候选回答集;其中,候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答。
在一种可能的实施方式中,可以是通过响应针对于交互式用户接口的对话操作以获取对话操作对应的候选回答集。该对话操作通常为用户主动发起或者由聊天机器人等设备主动邀请,并通过交互式用户接口进行的人机对话的操作;例如,对话操作可以为语音采集器采集的用户发起的语音操作,也可以为聊天操作界面采集的用户输入的文字操作。对话操作对应有用户发送的对话问题和设备提供的候选回答集;其中,候选回答集是由多个候选回答组成的集合。候选回答包括基于对话问题在对话检索库中检索得到的至少一个检索回答和/或通过对话生成类模型生成的至少一个生成回答。
步骤S104,将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型。其中,排序模型为基于对话语料样本训练得到的。
在一种具体的实施方式中,可以基于预先采集的对话语料样本对二分类模型进行训练得到排序模型,以使排序模型执行步骤S106。
步骤S106,通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度。
在本实施例中,排序模型可以将对话问题中的每个字符均映射为对应的字向量,将各候选回答中的每个字符均映射为对应的字向量,从而将输入的对话问题和每个候选回答编译为矩阵;矩阵可用于表示对话问题和候选回答之间的交互信息,根据该矩阵得到对话问题与每个候选回答的匹配度。
步骤S108,基于每个候选回答的匹配度生成候选回答的排序结果。
可以理解,匹配度越高的候选回答越有可能被确定为对话问题的回答输出,因此可以参照匹配度对候选回答进行排序;诸如可以直接按照匹配度的大小对候选回答进行排序,或者,还可以将匹配度与其它参考因素(如候选回答的长度、候选回答与对话问题的重复度等)相结合对候选回答进行排序,得到候选回答的排序结果。
步骤S110,按照排序结果回复对话操作。
本实施例可以根据排序结果中排名最靠前的一个或者多个候选回答回复对话操作。其中,根据排序结果中排名最靠前的多个候选回答回复对话操作的实际应用场景诸如:由设备向人工客服推荐话术的场景中,设备可以按照排序结果给出多个候选回答作为推荐的话术,再由人工客服从推荐的话术中选择最佳回答,并将最佳回答回复给发起对话操作的用户。
本发明实施例提供的上述对话交互方法,能够获取对话操作对应的候选回答集;将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型;通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度;基于每个候选回答的匹配度生成候选回答的排序结果;按照排序结果回复对话操作。相对于现有通过多个子模型分别计算问题与每个回答的匹配度的方式,本实施例上述这种将对话操作对应的候选回答集统一输入排序模型,并通过排序模型直接计算对话问题与每个候选回答的匹配度的方式,不但可以简化模型的部署,有效提升了排序结果的生成效率,还可以避免现有技术中存在的对话问题与各候选回答在计算匹配度过程中存在的差异性,也即提高了匹配度计算过程的一致性,从而有效提高了回答排序结果的准确性。综上,本实施例提供的人机交互方法能够较为及时准确地响应用户,较好地改善了人机对话效果,提升了用户满意度。
在执行上述步骤S104中,可以将对话操作对应的对话问题和候选回答进行拼接之后再输入至排序模型中。其中,对话操作对应的对话问题可以为由用户首次发起的仅包括待答复问题的单轮对话,还可以为包括至少一问一答的多轮对话,为便于理解,以下分别进行阐述:
(一)如果对话问题为多轮对话,即包括待答复问题和待答复问题之前的背景对话,采用预设拼接符号将背景对话和待答复问题分别与各个候选回答进行拼接,得到拼接对话。
为了便于理解,可给出对话问题的如下示例:{a1、a2、a3、a4},该对话问题示例中的结尾语句a4为待答复问题,待答复问题a4之前的语句a1、a2和a3为背景对话;候选回答集示例为:{b1、b2……b9、b10}。采用预设拼接符号(诸如“+”、“<p>”)将背景对话和待答复问题分别与各个候选回答进行拼接,得到的拼接对话为:a1+a2+a3+a4+b1,a1+a2+a3+a4+b2,……a1+a2+a3+a4+b10。
然后将上述拼接对话输入至预先训练得到的排序模型。上述实施方式通过将背景对话与待答复问题、候选回答进行拼接,能够考虑到待答复问题实际发生场景,使候选回答与待答复问题的连贯性、准确性更好,有利于提高后续对候选答案进行排序的准确性。
(二)如果对话问题为仅包括待答复问题的单轮对话,采用预设的拼接符号将待答复问题分别与各个候选回答进行拼接后输入至排序模型即可。
基于上述拼接对话,对于候选回答集中的每个候选回答,本实施例可通过如下步骤(1)和(2)计算对话问题和当前的候选回答的匹配度:
(1)根据拼接对话中的字符生成矩阵;其中,矩阵中的元素为字符对应的字向量。
在实际应用中,将拼接对话中的各字符编码成字向量,并在编码字向量的同时考虑位置编码,进而根据各字符对应的字向量生成拼接对话对应的矩阵;其中,该字符诸如为单个汉字、单个英文单词。
(2)通过排序模型对矩阵进行运算,得到对话问题和候选回答的匹配度。该排序模型可以采用基于transformer的bert模型,排序模型基于深度注意力机制计算对话问题和候选回答之间的交互依赖匹配度。
在具体实现时,训练模型可以使用12层的Multi-head attention机制对矩阵进行运算,得到对话问题和候选回答的匹配度。
考虑到直接根据候选回答的匹配度对候选回答进行排序,可能存在有的候选回答句子不通顺或候选回答与输入的对话问题中的背景对话过度重复等问题。本实施例提供了一种基于每个候选回答的匹配度生成候选回答的排序结果的方法,可参照如下内容:
首先根据候选回答的匹配度大小对每个候选回答进行排序,得到初始排序结果。然后根据预设的处理规则对初始排序结果进行顺序调整,得到候选回答的最终排序结果;其中,预设的处理规则包括但不限于以下中的一种或多种:候选回答的来源优先级、候选回答的长度、候选回答与对话问题的重复度、候选回答的来源占比、候选回答中包含的词语序列的联合概率。
为了便于理解,本实施例针对各预设的处理规则对初始排序结果的顺序调整步骤展开描述。
当预设的处理规则包括候选回答的来源优先级时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,可以包括:
(1)如果候选回答集中包括多个候选回答,获取每个候选回答携带的来源标识;其中,来源标识诸如为字母或数字等能够表示候选回答不同来源的标识,来源表示可以包括网络对话检索库标识、人工对话检索库标识和生成式回答标识中的一种或多种。上述网络对话检索库可以是基于爬取到的网络对话整理得到的对话检索库,人工对话检索库可以是通过人工创作对话的方式建立的对话检索库,生成式回答可以是通过预设的生成式模型自动生成的候选回答,且生成式模型一般为深度神经网络模型,如Seq2Seq模型。
(2)根据候选回答的来源优先级对每个候选回答携带的来源标识进行排序。
不同生成方式所生成的回答各有优劣,诸如,生成式回答多样性比较好,可以生成预设回答数据库中没有出现过的回答,但是回答可能存在语法错误。基于对话检索库检索得到的回答往往比较语句比较通顺,但回答质量受限于对话检索库的质量和规模。其中,对于对话检索库中的人工对话检索库,由于其回答是由人工创作的,所以人工对话检索库中的回答质量会高于网络对话检索库。基于上述回答不同生成方式的优劣,为了得到准确性较高的候选回答,可以预先设置候选回答的来源优先级。该优先级可以为人工对话检索库高于网络对话检索库高于生成式回答。从而,可以按照该优先级对每个候选回答携带的来源标识进行排序。
(3)按照来源标识的排序结果对初始排序结果进行顺序调整。例如,候选回答的初始排序结果为b1>b2>b3>b4>b5>b6,其中,候选回答b5所携带的来源标识为人工对话检索库标识,而候选回答b1至b4所携带的来源标识为网络对话检索库标识,那么可以将候选回答b5调整至首位或者向前移动一位或多位。
当预设的处理规则包括候选回答的长度时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,可以包括:
第一、如果候选回答集中包括多个候选回答,获取每个候选回答的长度。第二、获取最小长度阈值和最大长度阈值;其中,该最小长度阈值和最大长度阈值可以是基于对话问题中的待答复问题和至少一条背景对话的长度设置的;也可以是基于各个候选回答的长度设置的。第三、将长度小于最小长度阈值的候选回答和长度大于最大长度阈值的候选回答的排列位置调整至靠后的位置处。
当预设的处理规则包括候选回答与对话问题的重复度时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,可以包括:
第一、如果候选回答集中包括多个候选回答,获取每个候选回答与对话问题的重复度。第二、获取预设的重复度范围;该重复度阈范围可以是普适性较高的预设的固定值,如30%-70%,还可以是基于对话问题中的至少一条背景对话之间的重复度设置的,该设置方式更符合当前对话问题的场景,所设置的重复度范围更为准确。第三、将重复度不在预设的重复度范围内的候选回答的排列位置调整至靠后的位置处。
当预设的处理规则包括候选回答的来源占比时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,可以包括:
第一、如果候选回答集中包括多个候选回答,获取候选回答的来源占比。该来源占比是指各候选回答的不同来源之间的比例,可以根据来源标识进行统计,诸如计算网络对话检索库标识、人工对话检索库标识与生成式回答标识之间的比例,或者计算每种来源标识占来源标识总数的百分比。第二、根据候选回答的来源占比对初始排序结果进行顺序调整。来源占比比较高的在一定程度上表示该来源对应的候选回答生成方式是较为成熟的技术,对应的候选回答为高质量回答的可能性较高。基于此,可以按照来源占比对初始排序结果进行顺序调整,例如,将来源占比最高的候选回答的排列位置调整至首位或者向前移动一位或者多位。
当预设的处理规则包括候选回答中包含的词语序列的联合概率时,根据预设的处理规则对初始排序结果进行顺序调整的步骤,可以包括:
第一、如果候选回答集中包括多个候选回答,获取候选回答中包含的词语序列的联合概率;该联合概率可以是通过预设的神经网络模型对选回答中包含的词语之间的连贯性进行评价得到的。第二、按照上述联合概率的大小对初始排序结果进行顺序调整,例如,将联合概率最大的候选回答的排列位置调整至首位或者向前移动一位或者多位。
基于上述方式得到候选回答的最终排序结果后,可以将排在首位的候选回答作为目标回答;以目标回答对应的文字和/或语音回复对话操作。
在实际应用中还可以将排在前几位(如前三位)的候选回答作为推荐回答;将推荐回答对应的文字和/或语音发送给人工客户,由人工客户基于推荐回答回复对话操作。
对于上述实施例中提到的训练模型,本实施例提供一种排序模型的训练过程,参照如图2所示的排序模型训练方法流程图,包括如下步骤S202至S208:
步骤S202,采集对话语料样本;其中,对话语料样本包括单轮对话语料和多轮对话语料。
在一种具体实施例中,可以首先通过网络爬虫获取诸如微博、豆瓣等网络平台中的网络对话;该网络对话数据量较大,通常可以覆盖到单轮对话和多轮对话。然后对网络对话进行数据清洗和数据质量标注,得到对话语料样本。
在对网络对话进行数据清洗时,可以预先设置多个关键词,该关键词诸如涉黄、涉政、涉暴的词语,根据预设的关键词对网络对话进行过滤。对过滤后的网络对话进行重复内容的重新编辑,如将“哈哈哈哈”类的重复内容删减为“哈哈”。此外,网络对话中可能包含数字和/或英文单词,将对疑似手机号、QQ号等隐私信息进行过滤。
标注平台对清洗后的网络对话进行数据质量标注,该数据质量标注可以采用0到1的数字标注网络对话的质量,由0到1表示网络对话的质量由低到高。在一种较为简单的实现方式中,可以设置数据质量标注仅包括0和1,保留标注为1的网络对话,抛弃标注为0的网络对话。通过上述对网络对话的数据清洗和数据质量标注,得到对话语料样本。
步骤S204,将多轮对话语料拆解为多个子对话语料;子对话语料中包含至少一轮上下文对话。
考虑到在多轮对话中,前面已发生的背景对话能够反映对话的历史背景信息,对于候选回答的合理性有较大影响。因此可参照如下具体方式对多轮对话语料进行拆解:
首先将多轮对话语料中首轮对话的回答作为起始拆解节点,对多轮对话语料中位于起始拆解节点之后的对话进行拆解,得到多个拆解节点。诸如对于多轮对话语料{a1、a2、a3、a4},将首轮对话的回答a2作为起始拆解节点,对话a2、a3和a4进行拆解,得到多个拆解节点。
然后对于每个拆解节点,均将该拆解节点与该拆解节点之前的对话确定为子对话语料;子对话语料的数量与拆解节点的数量相等。将多轮对话语料{a1、a2、a3、a4}拆解得到的子对话语料包括:{a1、a2}、{a1、a2、a3}、{a1、a2、a3、a4}。
步骤S206,基于轮对话语料和子对话语料得到正样本对话语料和负样本对话语料。
关于正样本对话语料,可以对单轮对话语料和子对话语料进行全部或部分采样,得到正样本对话语料。正样本对话语料诸如{a1、a2}、{m1、m2、m3、m4}、{n1、n2、n3、n4、n5}。
关于负样本对话语料,可以在单轮对话语料和子对话语料中任意选取一句结尾回答;采用任意选取的结尾回答替换正样本对话语料中的原始回答,得到负样本对话语料。例如:任意选取一句结尾回答诸如m4,采用该结尾回答m4替换正样本对话语料{a1、a2}中的原始回答a2,得到负样本对话语料{a1、m2};参照上述正样本对话语料,其它的负样本对话语料可以包括{m1、m2、m3、n5}、{n1、n2、n3、n4、a2}等等。
通过采用得到的正样本对话语料和负样本对话语料的数量比例为1:1。
步骤S208,利用正样本对话语料和负样本对话语料训练二分类模型,得到排序模型。
基于上述方法训练得到的排序模型,可参照图3所示的排序模型对候选答案进行排序的示意图。排序模型的输入为对话操作对应的对话问题和候选回答,该对话问题可以包括待答复问题和背景对话。排序模型可划分为初步排序结构和后处理结构;初步排序结构用于根据候选回答的匹配度大小对每个候选回答进行排序,得到初始排序结果;后处理结构用于根据预设的处理规则对所述初始排序结果进行顺序调整,得到所述候选回答的最终排序结果。
在一些实际应用场景中,上述实施例所提供的对话交互方法可以应用于配置有交互式用户接口的聊天机器人,交互式用户接口可以包括但不限于:聊天操作界面和/或语音采集器。应用于聊天机器人的对话交互方法的实现原理及产生的技术效果,可参照前述方法实施例,在此不再赘述。
相对于现有通过多个子模型分别计算问题与每个回答的匹配度的方式,上述实施例所提供的对话交互方法将对话操作对应的候选回答集统一输入排序模型,并通过排序模型直接计算对话问题与每个候选回答的匹配度的方式,不但可以简化模型的部署,有效提升了排序结果的生成效率,还可以避免现有技术中存在的对话问题与各候选回答在计算匹配度过程中存在的差异性,也即提高了匹配度计算过程的一致性,从而有效提高了回答排序结果的准确性。综上,本实施例提供的人机交互方法能够较为及时准确地响应用户,较好地改善了人机对话效果,提升了用户满意度。
对应于上述实施例所提供的对话交互方法的实施例,本发明实施例提供了一种对话交互装置。参见图4所述的对话交互装置的结构框图,该装置包括以下模块:
回答获取模块402,用于获取对话操作对应的候选回答集。其中,候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答。
模型输入模块404,用于将对话操作对应的对话问题和候选回答集输入至预先训练得到的排序模型。其中,排序模型为基于对话语料样本训练得到的。
匹配度计算模块406,用于通过排序模型计算对话问题与候选回答集中的每个候选回答的匹配度。
排序模块408,用于基于每个候选回答的匹配度生成候选回答的排序结果。
回复模块410,用于按照排序结果回复对话操作。
本发明实施例提供的上述对话交互装置,将对话操作对应的候选回答集统一输入排序模型,并通过排序模型直接计算对话问题与每个候选回答的匹配度,通过上述方式不但可以简化模型的部署,有效提升了排序结果的生成效率,还可以避免现有技术中存在的对话问题与各候选回答在计算匹配度过程中存在的差异性,也即提高了匹配度计算过程的一致性,从而有效提高了回答排序结果的准确性。综上,本实施例提供的人机交互方法能够较为及时准确地响应用户,较好地改善了人机对话效果,提升了用户满意度。
在一种实现方式中,上述排序模块408还用于:根据候选回答的匹配度大小对每个候选回答进行排序,得到初始排序结果;根据预设的处理规则对初始排序结果进行顺序调整,得到候选回答的最终排序结果;其中,预设的处理规则包括以下中的一种或多种:候选回答的来源优先级、候选回答的长度、候选回答与对话问题的重复度、候选回答的来源占比、候选回答中包含的词语序列的联合概率。
在一种实现方式中,上述匹配度计算模块406还用于:如果候选回答集中包括多个候选回答,获取每个候选回答携带的来源标识;其中,来源标识包括网络对话检索库标识、人工对话检索库标识和生成式回答标识中的一种或多种;根据候选回答的来源优先级对每个候选回答携带的来源标识进行排序;按照来源标识的排序结果对初始排序结果进行顺序调整。
在一种实现方式中,上述模型输入模块404还用于:如果对话问题包括待答复问题和待答复问题之前的背景对话,采用预设拼接符号将背景对话和待答复问题分别与各个候选回答进行拼接,得到拼接对话;将拼接对话输入至预先训练得到的排序模型。
在一种实现方式中,上述匹配度计算模块406还用于:根据拼接对话中的字符生成矩阵。其中,矩阵中的元素为字符对应的字向量;通过排序模型对矩阵进行运算,得到对话问题和候选回答的匹配度。
在一种实现方式中,上述回复模块410还用于:将排在首位的候选回答作为目标回答;以目标回答对应的文字和/或语音回复对话操作。
在一种实现方式中,上述模型输入模块404还用于:采集对话语料样本;其中,对话语料样本包括单轮对话语料和多轮对话语料;将多轮对话语料拆解为多个子对话语料。子对话语料中包含至少一轮上下文对话;基于轮对话语料和子对话语料得到正样本对话语料和负样本对话语料;利用正样本对话语料和负样本对话语料训练二分类模型,得到排序模型。
在一种实现方式中,上述模型输入模块404还用于:通过网络爬虫获取网络对话;对网络对话进行数据清洗和数据质量标注,得到对话语料样本。
在一种实现方式中,上述模型输入模块404还用于:将多轮对话语料中首轮对话的回答作为起始拆解节点,对多轮对话语料中位于起始拆解节点之后的对话进行拆解,得到多个拆解节点;对于每个拆解节点,均将该拆解节点与该拆解节点之前的对话确定为子对话语料;子对话语料的数量与拆解节点的数量相等。
在一种实现方式中,上述模型输入模块404还用于:对单轮对话语料和子对话语料进行采样,得到正样本对话语料;在单轮对话语料和子对话语料中任意选取一句结尾回答;采用任意选取的结尾回答替换正样本对话语料中的原始回答,得到负样本对话语料。
在一种实现方式中,上述设备应用于配置有交互式用户接口的聊天机器人,交互式用户接口包括:聊天操作界面和/或语音采集器。
基于前述实施例,本发明实施例提供了一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的机器可执行指令,处理器执行机器可执行指令以实现上述实施例中对话交互方法的步骤。
具体的,参见如图5所示的电子设备的结构示意图,还包括总线503和通信接口504,处理器502、通信接口504和存储器501通过总线503连接。
其中,存储器501可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口504(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线503可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器502可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器502中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器502可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器501,处理器502读取存储器501中的信息,结合其硬件完成前述实施例的方法的步骤。
进一步,本发明实施例提供了一种机器可读存储介质,该机器可读存储介质存储有机器可执行指令,该机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现上述实施例中的对话交互方法的步骤。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (14)
1.一种对话交互方法,其特征在于,所述方法包括:
获取对话操作对应的候选回答集;其中,所述候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答;
将所述对话操作对应的对话问题和所述候选回答集输入至预先训练得到的排序模型;其中,所述排序模型为基于对话语料样本训练得到的;
通过所述排序模型计算所述对话问题与所述候选回答集中的每个所述候选回答的匹配度;
基于每个所述候选回答的匹配度生成所述候选回答的排序结果;
按照所述排序结果回复所述对话操作。
2.根据权利要求1所述的方法,其特征在于,基于每个所述候选回答的匹配度生成所述候选回答的排序结果的步骤,包括:
根据所述候选回答的匹配度大小对每个所述候选回答进行排序,得到初始排序结果;
根据预设的处理规则对所述初始排序结果进行顺序调整,得到所述候选回答的最终排序结果;其中,所述预设的处理规则包括以下中的一种或多种:候选回答的来源优先级、候选回答的长度、候选回答与对话问题的重复度、候选回答的来源占比、候选回答中包含的词语序列的联合概率。
3.根据权利要求2所述的方法,其特征在于,当所述预设的处理规则包括所述候选回答的来源优先级时,所述根据预设的处理规则对所述初始排序结果进行顺序调整的步骤,包括:
如果所述候选回答集中包括多个候选回答,获取每个所述候选回答携带的来源标识;其中,所述来源标识包括网络对话检索库标识、人工对话检索库标识和生成式回答标识中的一种或多种;
根据所述候选回答的来源优先级对每个所述候选回答携带的来源标识进行排序;
按照所述来源标识的排序结果对所述初始排序结果进行顺序调整。
4.根据权利要求1所述的方法,其特征在于,将所述对话操作对应的对话问题和所述候选回答集输入至预先训练得到的排序模型的步骤,包括:
如果所述对话问题包括待答复问题和所述待答复问题之前的背景对话,采用预设拼接符号将所述背景对话和所述待答复问题分别与各个所述候选回答进行拼接,得到拼接对话;
将所述拼接对话输入至预先训练得到的排序模型。
5.根据权利要求4所述的方法,其特征在于,通过所述排序模型计算所述对话问题和所述候选回答的匹配度的步骤,包括:
根据所述拼接对话中的字符生成矩阵;其中,所述矩阵中的元素为所述字符对应的字向量;
通过所述排序模型对所述矩阵进行运算,得到所述对话问题和所述候选回答的匹配度。
6.根据权利要求1所述的方法,其特征在于,按照所述排序结果回复所述对话操作的步骤,包括:
将排在首位的候选回答作为目标回答;
以所述目标回答对应的文字和/或语音回复所述对话操作。
7.根据权利要求1所述的方法,其特征在于,所述排序模型的训练过程包括:
采集对话语料样本;其中,所述对话语料样本包括单轮对话语料和多轮对话语料;
将所述多轮对话语料拆解为多个子对话语料;所述子对话语料中包含至少一轮上下文对话;
基于所述轮对话语料和所述子对话语料得到正样本对话语料和负样本对话语料;
利用所述正样本对话语料和所述负样本对话语料训练二分类模型,得到所述排序模型。
8.根据权利要求7所述的方法,其特征在于,所述采集对话语料样本的步骤,包括:
通过网络爬虫获取网络对话;
对所述网络对话进行数据清洗和数据质量标注,得到对话语料样本。
9.根据权利要求7所述的方法,其特征在于,将所述多轮对话语料拆解为多个子对话语料的步骤,包括:
将所述多轮对话语料中首轮对话的回答作为起始拆解节点,对所述多轮对话语料中位于所述起始拆解节点之后的对话进行拆解,得到多个拆解节点;
对于每个所述拆解节点,均将该拆解节点与该拆解节点之前的对话确定为子对话语料;所述子对话语料的数量与所述拆解节点的数量相等。
10.根据权利要求7所述的方法,其特征在于,所述基于所述轮对话语料和所述子对话语料得到正样本对话语料和负样本对话语料的步骤,包括:
对所述单轮对话语料和所述子对话语料进行采样,得到正样本对话语料;
在所述单轮对话语料和所述子对话语料中任意选取一句结尾回答;
采用任意选取的所述结尾回答替换所述正样本对话语料中的原始回答,得到负样本对话语料。
11.根据权利要求1至10任一项所述的方法,其特征在于,所述方法应用于配置有交互式用户接口的聊天机器人,所述交互式用户接口包括:聊天操作界面和/或语音采集器。
12.一种对话交互装置,其特征在于,包括:
回答获取模块,用于获取对话操作对应的候选回答集;其中,所述候选回答集中的候选回答包括至少一个检索回答和/或至少一个生成回答;
模型输入模块,用于将所述对话操作对应的对话问题和所述候选回答集输入至预先训练得到的排序模型;其中,所述排序模型为基于对话语料样本训练得到的;
匹配度计算模块,用于通过所述排序模型计算所述对话问题与所述候选回答集中的每个所述候选回答的匹配度;
排序模块,用于基于每个所述候选回答的匹配度生成所述候选回答的排序结果;
回复模块,用于按照所述排序结果回复所述对话操作。
13.一种电子设备,其特征在于,包括:处理器和存储装置;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至11任一项所述的方法。
14.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至11任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910845715.XA CN110543552B (zh) | 2019-09-06 | 2019-09-06 | 对话交互方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910845715.XA CN110543552B (zh) | 2019-09-06 | 2019-09-06 | 对话交互方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110543552A true CN110543552A (zh) | 2019-12-06 |
CN110543552B CN110543552B (zh) | 2022-06-07 |
Family
ID=68712940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910845715.XA Active CN110543552B (zh) | 2019-09-06 | 2019-09-06 | 对话交互方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110543552B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111177343A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种自动构造医美问诊引导逻辑的方法及系统 |
CN111177344A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种半自动构造医美问诊引导方法及系统 |
CN111180088A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种基于对话流的主动问诊及套电的方法及系统 |
CN111191018A (zh) * | 2019-12-30 | 2020-05-22 | 华为技术有限公司 | 对话系统的应答方法和装置、电子设备、智能设备 |
CN111400466A (zh) * | 2020-03-05 | 2020-07-10 | 中国工商银行股份有限公司 | 一种基于强化学习的智能对话方法及装置 |
CN111737559A (zh) * | 2020-05-29 | 2020-10-02 | 北京百度网讯科技有限公司 | 资源排序方法、训练排序模型的方法及对应装置 |
CN111881279A (zh) * | 2020-07-28 | 2020-11-03 | 平安科技(深圳)有限公司 | 基于Transformer模型的问答方法、问答装置及存储装置 |
CN112417127A (zh) * | 2020-12-02 | 2021-02-26 | 网易(杭州)网络有限公司 | 对话模型的训练、对话生成方法、装置、设备及介质 |
CN112507103A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 任务型对话及模型训练方法、装置、设备和存储介质 |
CN112668617A (zh) * | 2020-12-21 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种电网员工工作满意度评估方法及装置 |
CN113033664A (zh) * | 2021-03-26 | 2021-06-25 | 网易(杭州)网络有限公司 | 问答模型训练方法、问答方法、装置、设备及存储介质 |
WO2021135534A1 (zh) * | 2020-06-16 | 2021-07-08 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN114691815A (zh) * | 2020-12-25 | 2022-07-01 | 科沃斯商用机器人有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN115878775A (zh) * | 2022-12-23 | 2023-03-31 | 北京百度网讯科技有限公司 | 生成跨类型对话数据的方法和装置 |
CN116737888A (zh) * | 2023-01-11 | 2023-09-12 | 北京百度网讯科技有限公司 | 对话生成模型的训练方法和答复文本的确定方法、装置 |
CN111881279B (zh) * | 2020-07-28 | 2024-07-02 | 平安科技(深圳)有限公司 | 基于Transformer模型的问答方法、问答装置及存储装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110093479A1 (en) * | 2009-10-19 | 2011-04-21 | Vexigo, Ltd. | System and method for use of semantic understanding in storage, searching and providing of data or other content information |
CN106295792A (zh) * | 2016-08-05 | 2017-01-04 | 北京光年无限科技有限公司 | 基于多模型输出的对话数据交互处理方法及装置 |
CN107562863A (zh) * | 2017-08-30 | 2018-01-09 | 深圳狗尾草智能科技有限公司 | 聊天机器人回复自动生成方法及系统 |
CN108170764A (zh) * | 2017-12-25 | 2018-06-15 | 上海大学 | 一种基于场景上下文的人机多轮对话模型构建方法 |
CN108399169A (zh) * | 2017-02-06 | 2018-08-14 | 阿里巴巴集团控股有限公司 | 基于问答系统的对话处理方法、装置和系统及移动设备 |
CN109492085A (zh) * | 2018-11-15 | 2019-03-19 | 平安科技(深圳)有限公司 | 基于数据处理的答案确定方法、装置、终端及存储介质 |
CN109783704A (zh) * | 2019-01-03 | 2019-05-21 | 中国科学院自动化研究所 | 人机混合的应答方法、系统、装置 |
CN110008322A (zh) * | 2019-03-25 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 多轮对话场景下的话术推荐方法和装置 |
CN110020007A (zh) * | 2017-09-15 | 2019-07-16 | 上海挖数互联网科技有限公司 | 机器人交互控制方法及装置、存储介质、服务器 |
-
2019
- 2019-09-06 CN CN201910845715.XA patent/CN110543552B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110093479A1 (en) * | 2009-10-19 | 2011-04-21 | Vexigo, Ltd. | System and method for use of semantic understanding in storage, searching and providing of data or other content information |
CN106295792A (zh) * | 2016-08-05 | 2017-01-04 | 北京光年无限科技有限公司 | 基于多模型输出的对话数据交互处理方法及装置 |
CN108399169A (zh) * | 2017-02-06 | 2018-08-14 | 阿里巴巴集团控股有限公司 | 基于问答系统的对话处理方法、装置和系统及移动设备 |
CN107562863A (zh) * | 2017-08-30 | 2018-01-09 | 深圳狗尾草智能科技有限公司 | 聊天机器人回复自动生成方法及系统 |
CN110020007A (zh) * | 2017-09-15 | 2019-07-16 | 上海挖数互联网科技有限公司 | 机器人交互控制方法及装置、存储介质、服务器 |
CN108170764A (zh) * | 2017-12-25 | 2018-06-15 | 上海大学 | 一种基于场景上下文的人机多轮对话模型构建方法 |
CN109492085A (zh) * | 2018-11-15 | 2019-03-19 | 平安科技(深圳)有限公司 | 基于数据处理的答案确定方法、装置、终端及存储介质 |
CN109783704A (zh) * | 2019-01-03 | 2019-05-21 | 中国科学院自动化研究所 | 人机混合的应答方法、系统、装置 |
CN110008322A (zh) * | 2019-03-25 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 多轮对话场景下的话术推荐方法和装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111177344A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种半自动构造医美问诊引导方法及系统 |
CN111180088A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种基于对话流的主动问诊及套电的方法及系统 |
CN111177343A (zh) * | 2019-12-17 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种自动构造医美问诊引导逻辑的方法及系统 |
CN111191018B (zh) * | 2019-12-30 | 2023-10-20 | 华为技术有限公司 | 对话系统的应答方法和装置、电子设备、智能设备 |
CN111191018A (zh) * | 2019-12-30 | 2020-05-22 | 华为技术有限公司 | 对话系统的应答方法和装置、电子设备、智能设备 |
CN111400466A (zh) * | 2020-03-05 | 2020-07-10 | 中国工商银行股份有限公司 | 一种基于强化学习的智能对话方法及装置 |
CN111737559B (zh) * | 2020-05-29 | 2024-05-31 | 北京百度网讯科技有限公司 | 资源排序方法、训练排序模型的方法及对应装置 |
CN111737559A (zh) * | 2020-05-29 | 2020-10-02 | 北京百度网讯科技有限公司 | 资源排序方法、训练排序模型的方法及对应装置 |
WO2021135534A1 (zh) * | 2020-06-16 | 2021-07-08 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN111881279A (zh) * | 2020-07-28 | 2020-11-03 | 平安科技(深圳)有限公司 | 基于Transformer模型的问答方法、问答装置及存储装置 |
CN111881279B (zh) * | 2020-07-28 | 2024-07-02 | 平安科技(深圳)有限公司 | 基于Transformer模型的问答方法、问答装置及存储装置 |
CN112417127A (zh) * | 2020-12-02 | 2021-02-26 | 网易(杭州)网络有限公司 | 对话模型的训练、对话生成方法、装置、设备及介质 |
CN112417127B (zh) * | 2020-12-02 | 2023-08-22 | 网易(杭州)网络有限公司 | 对话模型的训练、对话生成方法、装置、设备及介质 |
CN112507103A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 任务型对话及模型训练方法、装置、设备和存储介质 |
CN112668617A (zh) * | 2020-12-21 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种电网员工工作满意度评估方法及装置 |
CN114691815A (zh) * | 2020-12-25 | 2022-07-01 | 科沃斯商用机器人有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN113033664A (zh) * | 2021-03-26 | 2021-06-25 | 网易(杭州)网络有限公司 | 问答模型训练方法、问答方法、装置、设备及存储介质 |
CN115878775B (zh) * | 2022-12-23 | 2024-04-12 | 北京百度网讯科技有限公司 | 生成跨类型对话数据的方法和装置 |
CN115878775A (zh) * | 2022-12-23 | 2023-03-31 | 北京百度网讯科技有限公司 | 生成跨类型对话数据的方法和装置 |
CN116737888B (zh) * | 2023-01-11 | 2024-05-17 | 北京百度网讯科技有限公司 | 对话生成模型的训练方法和答复文本的确定方法、装置 |
CN116737888A (zh) * | 2023-01-11 | 2023-09-12 | 北京百度网讯科技有限公司 | 对话生成模型的训练方法和答复文本的确定方法、装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110543552B (zh) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543552B (zh) | 对话交互方法、装置及电子设备 | |
CN110555095B (zh) | 人机对话方法和装置 | |
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN106776544B (zh) | 人物关系识别方法及装置和分词方法 | |
CN106534548B (zh) | 语音纠错方法和装置 | |
CN111523306A (zh) | 文本的纠错方法、装置和系统 | |
CN111310440B (zh) | 文本的纠错方法、装置和系统 | |
CN111177359A (zh) | 多轮对话方法和装置 | |
CN112948534A (zh) | 一种智能人机对话的交互方法、系统和电子设备 | |
CN111209740A (zh) | 文本模型训练方法、文本纠错方法、电子设备及存储介质 | |
CN110751234B (zh) | Ocr识别纠错方法、装置及设备 | |
CN110874401A (zh) | 信息处理方法、模型训练方法、装置、终端及计算设备 | |
CN113408287B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN112417848A (zh) | 语料生成方法、装置及计算机设备 | |
CN107291775A (zh) | 错误样本的修复语料生成方法和装置 | |
CN111552787A (zh) | 问答处理方法、装置、设备及存储介质 | |
CN114548119A (zh) | 测试集的生成方法、测试方法、装置、设备及介质 | |
CN113934834A (zh) | 一种问句匹配的方法、装置、设备和存储介质 | |
CN110708619B (zh) | 一种智能设备的词向量训练方法及装置 | |
CN111128122B (zh) | 韵律预测模型的优化方法及系统 | |
EP4322066A1 (en) | Method and apparatus for generating training data | |
CN110929514A (zh) | 文本校对方法、装置、计算机可读存储介质及电子设备 | |
CN116186259A (zh) | 一种会话线索评分方法、装置、设备及存储介质 | |
CN111091011B (zh) | 领域预测方法、领域预测装置及电子设备 | |
CN114492452A (zh) | 一种预训练语言模型的训练、诉求转接方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |