CN110647617A - 对话引导模型的训练样本构建方法和生成模型的方法 - Google Patents

对话引导模型的训练样本构建方法和生成模型的方法 Download PDF

Info

Publication number
CN110647617A
CN110647617A CN201910947573.8A CN201910947573A CN110647617A CN 110647617 A CN110647617 A CN 110647617A CN 201910947573 A CN201910947573 A CN 201910947573A CN 110647617 A CN110647617 A CN 110647617A
Authority
CN
China
Prior art keywords
man
conversation
query request
machine conversation
nth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910947573.8A
Other languages
English (en)
Other versions
CN110647617B (zh
Inventor
万立
贾倪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Shanghai Xiaodu Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910947573.8A priority Critical patent/CN110647617B/zh
Publication of CN110647617A publication Critical patent/CN110647617A/zh
Application granted granted Critical
Publication of CN110647617B publication Critical patent/CN110647617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了对话引导模型训练样本构建方法、模型生成方法及对话引导模型,涉及神经网络的训练领域。具体实现方案为:对话引导模型训练样本构建方法包括:获取符合条件的会话序列,符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;在符合条件的会话序列中,确定第n次人机对话的查询请求,其中第n次人机对话不是最后一次人机对话;在符合条件的会话序列中,确定最后一次人机对话的召回结果;基于第n次人机对话的查询请求与最后一次人机对话的召回结果,构建对话引导模型的训练样本。利用本申请能够方便地得到高质量的对话引导模型训练样本。

Description

对话引导模型的训练样本构建方法和生成模型的方法
技术领域
本申请涉及深度学习技术领域,尤其涉及神经网络的训练领域。
背景技术
人机对话交互通常包括任务型对话和开放型对话等类别,任务型对话就是智能设备满足用户需求,达成用户希望完成的任务;开放型对话的典型代表是聊天,聊天过程中也许没有明确的任务,而是开放型的闲聊。目前在人机对话交互中,占据主流的是任务型对话,智能设备达成用户希望完成的任务。
在实际应用中,任务型对话过程经常出现对话失败的情形,无法满足用户的需求,原因可能有多种,例如语音识别错误导致召回失败、意图槽位解析失败导致召回失败,等等。为应对召回失败后的反馈,一般的做法大致有:为智能设备人工配置兜底话术,比如“我还不理解”、“我还不知道”,以安抚用户的情绪;或者向用户推送时下热门的查询,引导用户再次表达。
但是,人工配置兜底话术其实是一种迫不得已的兜底方案,并没有解决无召回结果的问题;而向用户推荐热门查询,容易形成对用户的无意义打扰,浪费用户的时间。目前,智能设备在人机对话交互中的表现已不能满足日益多样的用户需求。
发明内容
有鉴于此,本申请提供一种对话引导模型的训练样本构建方法、生成对话引导模型的方法、对话引导模型、电子设备及可读存储介质。
第一方面,本申请提供一种对话引导模型的训练样本构建方法,包括:
获取符合条件的会话序列,符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
在符合条件的会话序列中,确定第n次人机对话的查询请求,其中n 为正整数,第n次人机对话不是最后一次人机对话;
在符合条件的会话序列中,确定最后一次人机对话的召回结果;
基于第n次人机对话的查询请求与最后一次人机对话的召回结果,构建对话引导模型的训练样本。
利用本申请上述实施例,可以以用户与智能设备之间的会话数据为数据来源,从中选取具有召回结果的会话序列,在会话序列中再选取用户需求得到满足的最后一次对话的数据作为部分样本数据,另外还选取之前的对话(称为第n次人机对话)的查询请求Query为部分样本数据,进而构建训练样本,无需人工标注,由于最后一次对话的召回结果为用户满意的召回结果的概率较高,使得训练样本的指向性较强,训练样本的质量较高,有助于模型将Query引导向潜在的正确形式,可见,利用本申请实施例能够以较低成本获得高质量、高价值的训练样本。
根据本申请实施例的方法,方法包括:将最后一次人机对话的召回结果作为训练样本的目标:其中,最后一次人机对话的查询请求具有明确的意图和/或槽位。
利用本申请上述实施例,最后一次对话的Query具有成功解析出明确的意图和/或槽位,能够进一步提高训练样本的质量。
根据本申请实施例的方法,最后一次人机对话之前的多次人机对话的查询请求不具有召回结果;或者,最后一次人机对话之前的每一次人机对话的查询请求均不具有召回结果。
以上给出了本申请两种可能的实施例,在一个会话序列中,最后一次对话成功召回,在这次成功召回之前,可能出现无法召回或召回结果不能令人满意的情况,则用户可能会再次发出Query,多次尝试直至成功召回满意的结果;也有可能在最后一次成功召回之前,用户发出的每一个Query 都无法成功召回。对于上述两种情况,均可采用本申请实施例对会话序列进行处理,获得训练样本。
根据本申请实施例的方法,在确定第n次人机对话的查询请求之后,该方法还包括:
对第n次人机对话的查询请求进行切词处理,并将切词处理的结果按照词频排序,得到切词词表;
根据切词词表,将第n次人机对话的查询请求映射为字符串;
将字符串作为训练样本的输入特征。
利用本申请上述实施例,对Query进行切词(有时也称为分词),并按词频排序等一系列处理,可为后续的模型训练过程做好准备。
根据本申请实施例的方法,第n次人机对话是最后一次人机对话的前一次人机对话。
利用本申请上述实施例,由于最后一次人机对话的前一次人机对话的 Query已经经过至少一次调整(例如无结果召回时,用户主动调整Query 后再次发出),调整后的Query即得到了召回结果,意味着最后一次人机对话的前一次人机对话的Query质量较好,将其作为训练样本的数据来源,有利于提高训练样本质量。
根据本申请实施例的方法,方法还包括:如果第n次人机对话的查询请求包括控制信息,剔除第n次人机对话的查询请求。
以上实施例给出一种对训练数据进行清洗的方式,将具有控制属性的信息(例如:退出、打开、静音)剔除,也就是不作为训练样本保留,原因在于对这类控制信息已经存在对应明确的召回,执行控制指令即可,对这类Query进行深度学习不会提高对话引导模型对非控制类Query的处理能力,因此将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。
根据本申请实施例的方法,方法还包括:如果第n次人机对话的查询请求仅包含一个字,剔除第n次人机对话的查询请求。
以上实施例给出一种对训练数据进行清洗的方式,将仅包含一个字 (例如Query仅包含一个词,且词中仅包含一个汉字)的Query剔除,原因在于这类Query大多是无实际含义的停用词(例如:好、的、嗯),对这类Query进行深度学习不会提高对话引导模型对实体Query的处理能力,因此将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。
根据本申请实施例的方法,方法还包括:对第n次人机对话的查询请求与对应的目标查询请求进行相关性计算,如果计算结果不符合相关性条件,将第n次人机对话的查询请求剔除。
以上实施例给出一种对训练数据进行清洗的方式,通过上述处理可过滤掉相关性明显较低的Query,将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。
第二方面,本申请实施例还提供一种生成对话引导模型的方法,包括:
获取训练样本,训练样本包括根据如上的方法得到的训练样本;
将获取的训练样本输入神经网络以对神经网络进行训练;
达到停止条件后结束训练,将训练后得到的神经网络作为对话引导模型。
利用上述实施例,神经网络的训练样本可以由本申请实施例的对话引导模型的训练样本构建方法所构建,训练时,将训练样本的输入特征和目标均输入待训练的神经网络,训练好的对话引导模型可应用于人机对话交互设备,例如在任务型对话中更好地达成用户希望的任务。
第三方面,本申请实施例还提供一种对话引导模型,对话引导模型通过对神经网络进行训练而生成,其中,以本申请实施例的方法得到的训练样本,实施对神经网络的训练。
利用上述实施例,基于本申请实施例的对话引导模型训练样本构建方法所构建的训练样本,对神经网络进行训练,得到的训练好的对话引导模型可应用于人机对话交互设备,例如在任务型对话中更好地达成用户希望的任务,节省用户的宝贵时间。
第四方面,本申请实施例还提供一种对话引导模型的训练样本构建装置,包括:
会话序列获取模块,用于获取符合条件的会话序列,符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
查询请求确定模块,用于在符合条件的会话序列中,确定第n次人机对话的查询请求,其中n为正整数;
召回结果确定模块,用于在符合条件的会话序列中,确定最后一次人机对话的召回结果;
训练样本构建模块,用于基于第n次人机对话的查询请求与最后一次人机对话的召回结果,构建对话引导模型的训练样本。
第五方面,本申请实施例还提供一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上的对话引导模型的训练样本构建方法或者执行如上的生成对话引导模型的方法。
第六方面,本申请实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如上的对话引导模型的训练样本构建方法或者执行如上的生成对话引导模型的方法。
利用本申请上述实施例,可以以用户与智能设备之间的会话数据为数据来源,从中选取具有召回结果的会话序列,在会话序列中再选取用户需求得到满足的最后一次对话的数据作为部分样本数据,另外还选取之前的对话的查询请求Query为部分样本数据,进而构建训练样本,无需人工标注,由于最后一次对话的召回结果为用户满意的召回结果的概率较高,使得训练样本的指向性较强,训练样本的质量较高,有助于模型将Query引导向潜在的正确形式,利用本申请实施例能够以较低成本获得高质量、高价值的训练样本。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例的对话引导模型训练样本构建方法的流程示意图;
图2是根据本申请实施例的生成对话引导模型的方法的流程示意图;
图3是根据本申请实施例的对话引导模型训练样本构建装置的示意图;
图4是用来实现本申请实施例的对话引导模型训练样本构建方法或者用来实现本申请实施例的生成对话引导模型的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
首先,对本申请实施例可能涉及的部分概念进行简要描述,如下:
查询请求Query:一般指用户对设备输入查询请求信息,通过对用户 Query进行拆解、分析,可了解用户的意图与需求。
会话Session:一般指在设定的时间段内发生的一系列人机互动的信息,例如用户一天之内连续两次Query之间的时间间隔小于一小时的 Query的序列。
会话Sequence:一般地,Sequence是Session的子集,Sequence也是一系列Query的序列。
图1示出了本申请实施例的对话引导模型的训练样本构建方法的流程框图,包括:
S101,获取符合条件的会话序列,符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
S102,在符合条件的会话序列中,确定第n次人机对话的查询请求,其中n为正整数,第n次人机对话不是最后一次人机对话;
S103,在符合条件的会话序列中,确定最后一次人机对话的召回结果;
S104,基于第n次人机对话的查询请求与最后一次人机对话的召回结果,构建对话引导模型的训练样本。
利用本申请上述实施例,可以以用户与智能设备之间的会话数据为数据来源,从中选取具有召回结果的会话序列,在会话序列中再选取用户需求得到满足的最后一次对话的数据作为部分样本数据,另外还选取之前的一次对话例如第n次人机对话的查询请求Query为部分样本数据,进而构建训练样本,无需人工标注,由于最后一次对话的召回结果为用户满意的召回结果的概率较高,使得训练样本的指向性较强,训练样本的质量较高,有助于模型将Query引导向潜在的正确形式,可见,利用本申请实施例能够以较低成本获得高质量、高价值的训练样本。
举例来讲,用户与智能设备(如智能机器人、智能音箱,等等)发生人机对话,用户对智能设备发出Query请求,智能设备会根据Query搜索资源,得到召回结果后反馈给用户,这个会话过程中用户与智能音箱有多次对话,作为示例:
第1次对话中,用户Query为“支付支付”,智能设备回答“支付什么呢”;
第2次对话中,用户Query为“不是支付,是知否”,智能设备回答“是知否知否吗”;
第3次对话中,用户Query为“我想听知否知否”,智能设备对该Query 进行解析,成功获得准确的意图intent和槽位slot,并搜索资源,召回歌曲《知否知否》,智能设备播放该歌曲,完成结果召回。
用户没有再发出Query,会话结束。
结合本申请进行说明,首先,智能设备将上述人机对话过程中产生的数据储存下来,在该会话中,最后一次对话即第3次对话的Query具有召回结果,为“播放歌曲知否知否”,因此本次会话是符合要求的会话;
将会话序列作为训练样本的数据来源,具体地:
第1次人机对话的Query“支付支付”以及第2次人机对话的Query“不是支付,是知否”,均可作为训练样本的数据来源;
并且,最后一次对话即第3次对话的召回结果“播放歌曲知否知否”,亦作为训练样本的数据来源;
最后,将上述训练样本的数据来源组成样本对,即得到了本申请实施例所希望构建的对话引导模型的训练样本。
在本申请的实施例中,最后一次人机对话的Query具有明确的意图 intent,或者最后一次人机对话的Query具有明确的槽位slot,可将最后一次人机对话的召回结果对应的intent和/或slot作为训练样本的目标。
结合例子来看,第3次对话的Query“我想听知否知否”,通过切词拆解、语义分析等处理,可得到意图为听歌曲,槽位为“我想听知否知否”。
利用本申请上述实施例,最后一次对话的Query具有成功解析出明确的intent和/或slot,能够进一步提高训练样本的质量。
在本申请的实施例中,最后一次人机对话之前的多次人机对话的查询请求不具有召回结果;或者,最后一次人机对话之前的每一次人机对话的查询请求均不具有召回结果。
应用中,在一个会话序列中的最后一次对话成功召回,在这次成功召回之前,可能出现无法召回或召回结果不能令人满意的情况,则用户可能会再次发出Query,多次尝试直至成功召回满意的结果;也有可能在最后一次成功召回之前,用户发出的每一个Query都无法成功召回。对于上述两种情况,均可采用本申请实施例对会话序列进行处理,获得训练样本。
在本申请的实施例中,在确定第n次人机对话的查询请求之后,该方法还包括:
对第n次人机对话的查询请求进行切词处理,并将切词处理的结果按照词频排序,得到切词词表;
根据切词词表,将第n次人机对话的查询请求映射为字符串;
将字符串作为训练样本的输入特征。
利用本申请上述实施例,对Query进行切词,有时也称为分词,并按词频排序等一系列处理,可为后续的模型训练过程做好准备。
结合例子来看,以对第3次对话的Query“我想听知否知否”进行切词为例,切词后得到字和/或词,按词频排序后为:
我——4
想——3
听——2
支付——1
以上的左列为Query切词后的单元,右列为词频的数值。
可将Query切词结果“我想听知否知否”映射为字符串“4 3 2 1 1”,则将该字符串作为输入特征,将得到的第3次对话的召回结果作为目标,构建得到对话引导模型的训练样本数据,如下:
“4 3 2 1 1,audio.music_song_知否知否”
在本申请的实施例中,第n次人机对话是最后一次人机对话的前一次人机对话。
结合例子来看,将最后一次人机对话的前一次人机对话的Query,也就是该例子中第2次人机对话的Query“不是支付,是知否”,作为训练样本中输入特征的来源,这个Query已经经过一次调整,由初始Query“支付支付”调整而来。
由于最后一次人机对话的前一次人机对话的Query已经经过至少一次调整(例如无结果召回时,用户主动调整Query后再次发出),调整后的 Query即得到了召回结果,意味着最后一次人机对话的前一次人机对话的 Query质量较好,将其作为训练样本的数据来源,有利于提高训练样本质量。
在本申请的实施例中,可以对上述多个步骤处理得到的数据进行清洗和筛选,将不符合训练目的噪音数据过滤剔除掉,提高训练样本的指令。
作为示例,以下给出本申请实施例可采用的多种数据清洗和筛选方式。
①如果第n次人机对话的查询请求包括控制信息,剔除第n次人机对话的查询请求。
将具有控制属性的信息(例如:退出、打开、静音)剔除,也就是不作为训练样本保留,原因在于对这类控制信息已经存在对应明确的召回,执行控制指令即可,对这类Query进行深度学习不会提高对话引导模型对非控制类Query的处理能力,因此将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。控制信息或控制类的Query可为预测失败样本及预测成功样本中出现的高频且同时出现在各类别训练数据中的无意义Query。
②如果第n次人机对话的查询请求仅包含一个字,剔除第n次人机对话的查询请求。
将仅包含一个字(例如Query仅包含一个词,且词中仅包含一个汉字) 的Query剔除,原因在于这类Query大多是无实际含义的停用词(例如:好、的、嗯),对这类Query进行深度学习不会提高对话引导模型对实体 Query的处理能力,因此将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。
③对第n次人机对话的查询请求与对应的目标查询请求进行相关性计算,如果计算结果不符合相关性条件,将第n次人机对话的查询请求剔除。
通过上述处理可过滤掉相关性明显较低的Query,将它们排除出训练样本的集合之外,训练样本的质量得到进一步优化。
除此之外,还可以采用结合人工标注的方式优化训练样本,例如将会话中最后的一个被满足的交互中的intent或slot作为训练样本的目标,人工标注一批优质意图槽位,比如音乐播放类意图,歌曲槽位等等。该步骤能够极大的提高训练样本的质量。
与上述实施例对应地,本申请实施例还提供一种生成对话引导模型的方法,参考图2,包括:
S201,获取训练样本,训练样本包括根据如上的方法得到的训练样本;
S202,将获取的训练样本输入神经网络以对神经网络进行训练;
S203,达到停止条件后结束训练,将训练后得到的神经网络作为对话引导模型。
利用上述实施例,神经网络的训练样本可以由本申请实施例的对话引导模型的训练样本构建方法所构建,训练时,将训练样本的输入特征和目标均输入待训练的神经网络,训练好的对话引导模型可应用于人机对话交互设备,例如在任务型对话中更好地达成用户希望的任务。
对应地,本申请实施例还提供一种对话引导模型,对话引导模型通过对神经网络进行训练而生成,其中,以本申请实施例的方法得到的训练样本,实施对神经网络的训练。
利用上述实施例,基于本申请实施例的对话引导模型训练样本构建方法所构建的训练样本,对神经网络进行训练,得到的训练好的对话引导模型可应用于人机对话交互设备,例如在任务型对话中更好地达成用户希望的任务,节省用户的宝贵时间。
本申请实施例的神经网络可为各种神经网络,例如卷积神经网络 (CNN)、循环神经网络(RNN)、长短时记忆神经网络(LSTM)或其他适合的神经网络模型,利用构建的训练样本数据输入神经网络中进行训练,可得到需要的对话引导模型。
对应地,本申请实施例还提供一种对话引导模型的训练样本构建装置 10,参考图3,包括:
会话序列获取模块12,用于获取符合条件的会话序列,符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
查询请求确定模块14,用于在符合条件的会话序列中,确定第n次人机对话的查询请求,其中n为正整数;
召回结果确定模块16,用于在符合条件的会话序列中,确定最后一次人机对话的召回结果:
训练样本构建模块18,用于基于第n次人机对话的查询请求与最后一次人机对话的召回结果,构建对话引导模型的训练样本。
根据本申请实施例的装置,所述训练样本构建模块用于将所述最后一次人机对话的召回结果作为训练样本的目标:
所述最后一次人机对话的查询请求具有明确的意图和/或槽位。
根据本申请实施例的装置,所述最后一次人机对话之前的多次人机对话的查询请求不具有召回结果;或者,所述最后一次人机对话之前的每一次人机对话的查询请求均不具有召回结果。
根据本申请实施例的装置,所述装置还包括:
切词处理模块,用于在所述查询请求确定模块确定第n次人机对话的查询请求之后,对所述第n次人机对话的查询请求进行切词处理,并将切词处理的结果按照词频排序,得到切词词表;
映射处理模块,用于根据所述切词词表,将所述第n次人机对话的查询请求映射为字符串;其中,所述训练样本构建模块用于将所述字符串作为训练样本的输入特征。
根据本申请实施例的装置,所述第n次人机对话是所述最后一次人机对话的前一次人机对话。
根据本申请实施例的装置,所述装置还包括:第一剔除处理模块,用于在所述第n次人机对话的查询请求包括控制信息的情况下,剔除所述第 n次人机对话的查询请求。
根据本申请实施例的装置,所述装置还包括:第二剔除处理模块,用于在所述第n次人机对话的查询请求仅包含一个字的情况下,剔除所述第 n次人机对话的查询请求。
根据本申请实施例的装置,所述装置还包括:
相关性计算模块,用于对所述第n次人机对话的查询请求与对应的目标查询请求进行相关性计算;
第三剔除处理模块,用于在所述计算结果不符合相关性条件的情况下,将所述第n次人机对话的查询请求剔除。…
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图4所示,是根据本申请实施例的对话引导模型的训练样本构建方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图4所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的对话引导模型的训练样本构建方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的对话引导模型的训练样本构建方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的对话引导模型的训练样本构建方法对应的程序指令/模块(例如,附图3所示的会话序列获取模块12、查询请求确定模块14、召回结果确定模块16和训练样本构建模块18)。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的对话引导模型的训练样本构建方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据对话引导模型的训练样本构建电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至对话引导模型的训练样本构建电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
对话引导模型的训练样本构建方法的电子设备还可以包括:输入装置 1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图4中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与对话引导模型的训练样本构建电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机) 等。该显示设备可以包括但不限于,液晶显示器(Liquid Crystal Display, LCD)、发光二极管(Light Emitting Diode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ray Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (20)

1.一种对话引导模型的训练样本构建方法,其特征在于,包括:
获取符合条件的会话序列,所述符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
在所述符合条件的会话序列中,确定第n次人机对话的查询请求,其中n为正整数,所述第n次人机对话不是最后一次人机对话;
在所述符合条件的会话序列中,确定最后一次人机对话的召回结果;
基于所述第n次人机对话的查询请求与所述最后一次人机对话的召回结果,构建对话引导模型的训练样本。
2.根据权利要求1所述的方法,其特征在于,所述方法包括:将所述最后一次人机对话的召回结果作为训练样本的目标:其中,
所述最后一次人机对话的查询请求具有明确的意图和/或槽位。
3.根据权利要求2所述的方法,其特征在于,其中,
所述最后一次人机对话之前的多次人机对话的查询请求不具有召回结果;
或者,
所述最后一次人机对话之前的每一次人机对话的查询请求均不具有召回结果。
4.根据权利要求1所述的方法,其特征在于,在所述确定第n次人机对话的查询请求之后,所述方法还包括:
对所述第n次人机对话的查询请求进行切词处理,并将切词处理的结果按照词频排序,得到切词词表;
根据所述切词词表,将所述第n次人机对话的查询请求映射为字符串;
将所述字符串作为训练样本的输入特征。
5.根据权利要求1-4中任一项所述的方法,其特征在于,其中,
所述第n次人机对话是所述最后一次人机对话的前一次人机对话。
6.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:
如果所述第n次人机对话的查询请求包括控制信息,剔除所述第n次人机对话的查询请求。
7.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:
如果所述第n次人机对话的查询请求仅包含一个字,剔除所述第n次人机对话的查询请求。
8.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:
对所述第n次人机对话的查询请求与对应的目标查询请求进行相关性计算,如果计算结果不符合相关性条件,将所述第n次人机对话的查询请求剔除。
9.一种生成对话引导模型的方法,其特征在于,包括:
获取训练样本,所述训练样本包括根据权利要求1-8中任一项所述的方法得到的训练样本;
将获取的所述训练样本输入神经网络以对所述神经网络进行训练;
达到停止条件后结束训练,将训练后得到的神经网络作为对话引导模型。
10.一种对话引导模型,其特征在于,所述对话引导模型通过对神经网络进行训练而生成,其中,以根据权利要求1-8中任一项所述的方法得到的训练样本,实施对所述神经网络的训练。
11.一种对话引导模型的训练样本构建装置,其特征在于,包括:
会话序列获取模块,用于获取符合条件的会话序列,所述符合条件的会话序列中的最后一次人机对话的查询请求具有召回结果;
查询请求确定模块,用于在所述符合条件的会话序列中,确定第n次人机对话的查询请求,其中n为正整数;
召回结果确定模块,用于在所述符合条件的会话序列中,确定最后一次人机对话的召回结果;
训练样本构建模块,用于基于所述第n次人机对话的查询请求与所述最后一次人机对话的召回结果,构建对话引导模型的训练样本。
12.根据权利要求11所述的装置,其特征在于,其中,所述训练样本构建模块用于将所述最后一次人机对话的召回结果作为训练样本的目标:
所述最后一次人机对话的查询请求具有明确的意图和/或槽位。
13.根据权利要求12所述的装置,其特征在于,其中,
所述最后一次人机对话之前的多次人机对话的查询请求不具有召回结果;
或者,
所述最后一次人机对话之前的每一次人机对话的查询请求均不具有召回结果。
14.根据权利要求11所述的装置,其特征在于,所述装置还包括:
切词处理模块,用于在所述查询请求确定模块确定第n次人机对话的查询请求之后,对所述第n次人机对话的查询请求进行切词处理,并将切词处理的结果按照词频排序,得到切词词表;
映射处理模块,用于根据所述切词词表,将所述第n次人机对话的查询请求映射为字符串;
其中,所述训练样本构建模块用于将所述字符串作为训练样本的输入特征。
15.根据权利要求11-14中任一项所述的装置,其特征在于,其中,
所述第n次人机对话是所述最后一次人机对话的前一次人机对话。
16.根据权利要求11-14中任一项所述的装置,其特征在于,所述装置还包括:
第一剔除处理模块,用于在所述第n次人机对话的查询请求包括控制信息的情况下,剔除所述第n次人机对话的查询请求。
17.根据权利要求11-14中任一项所述的装置,其特征在于,所述装置还包括:
第二剔除处理模块,用于在所述第n次人机对话的查询请求仅包含一个字的情况下,剔除所述第n次人机对话的查询请求。
18.根据权利要求11-14中任一项所述的装置,其特征在于,所述装置还包括:
相关性计算模块,用于对所述第n次人机对话的查询请求与对应的目标查询请求进行相关性计算;
第三剔除处理模块,用于在所述计算结果不符合相关性条件的情况下,将所述第n次人机对话的查询请求剔除。
19.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的对话引导模型的训练样本构建方法或者执行权利要求9所述的生成对话引导模型的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的对话引导模型的训练样本构建方法或者执行权利要求9所述的生成对话引导模型的方法。
CN201910947573.8A 2019-09-29 2019-09-29 对话引导模型的训练样本构建方法和生成模型的方法 Active CN110647617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910947573.8A CN110647617B (zh) 2019-09-29 2019-09-29 对话引导模型的训练样本构建方法和生成模型的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910947573.8A CN110647617B (zh) 2019-09-29 2019-09-29 对话引导模型的训练样本构建方法和生成模型的方法

Publications (2)

Publication Number Publication Date
CN110647617A true CN110647617A (zh) 2020-01-03
CN110647617B CN110647617B (zh) 2022-04-19

Family

ID=69012149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910947573.8A Active CN110647617B (zh) 2019-09-29 2019-09-29 对话引导模型的训练样本构建方法和生成模型的方法

Country Status (1)

Country Link
CN (1) CN110647617B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339767A (zh) * 2020-02-21 2020-06-26 百度在线网络技术(北京)有限公司 对话源数据处理方法及装置、电子设备、计算机可读介质
CN111897943A (zh) * 2020-08-17 2020-11-06 腾讯科技(深圳)有限公司 会话记录搜索方法、装置、电子设备及存储介质
CN112214592A (zh) * 2020-11-05 2021-01-12 中科讯飞互联(北京)信息科技有限公司 一种回复对话评分模型训练方法、对话回复方法及其装置
CN115292467A (zh) * 2022-08-10 2022-11-04 北京百度网讯科技有限公司 信息处理与模型训练方法、装置、设备、介质及程序产品

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150032443A1 (en) * 2013-07-25 2015-01-29 Yael Karov Self-learning statistical natural language processing for automatic production of virtual personal assistants
CN104572998A (zh) * 2015-01-07 2015-04-29 北京云知声信息技术有限公司 用于自动问答系统的问答排序模型更新方法及装置
CN107766559A (zh) * 2017-11-06 2018-03-06 第四范式(北京)技术有限公司 对话模型的训练方法、训练装置、对话方法及对话系统
US20180082184A1 (en) * 2016-09-19 2018-03-22 TCL Research America Inc. Context-aware chatbot system and method
CN107832476A (zh) * 2017-12-01 2018-03-23 北京百度网讯科技有限公司 一种搜索序列的理解方法、装置、设备和存储介质
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN109947924A (zh) * 2019-03-21 2019-06-28 百度在线网络技术(北京)有限公司 对话系统训练数据构建方法、装置、电子设备及存储介质
CN110188331A (zh) * 2019-06-03 2019-08-30 腾讯科技(深圳)有限公司 模型训练方法、对话系统评价方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150032443A1 (en) * 2013-07-25 2015-01-29 Yael Karov Self-learning statistical natural language processing for automatic production of virtual personal assistants
CN104572998A (zh) * 2015-01-07 2015-04-29 北京云知声信息技术有限公司 用于自动问答系统的问答排序模型更新方法及装置
US20180082184A1 (en) * 2016-09-19 2018-03-22 TCL Research America Inc. Context-aware chatbot system and method
CN107766559A (zh) * 2017-11-06 2018-03-06 第四范式(北京)技术有限公司 对话模型的训练方法、训练装置、对话方法及对话系统
CN107832476A (zh) * 2017-12-01 2018-03-23 北京百度网讯科技有限公司 一种搜索序列的理解方法、装置、设备和存储介质
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN109947924A (zh) * 2019-03-21 2019-06-28 百度在线网络技术(北京)有限公司 对话系统训练数据构建方法、装置、电子设备及存储介质
CN110188331A (zh) * 2019-06-03 2019-08-30 腾讯科技(深圳)有限公司 模型训练方法、对话系统评价方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AMANDA J. STENT 等: "After dialog went pervasive: separating dialog behavior modeling and task modeling", 《ACM》 *
李京: "基于深度学习的会话型推荐系统研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339767A (zh) * 2020-02-21 2020-06-26 百度在线网络技术(北京)有限公司 对话源数据处理方法及装置、电子设备、计算机可读介质
CN111897943A (zh) * 2020-08-17 2020-11-06 腾讯科技(深圳)有限公司 会话记录搜索方法、装置、电子设备及存储介质
CN112214592A (zh) * 2020-11-05 2021-01-12 中科讯飞互联(北京)信息科技有限公司 一种回复对话评分模型训练方法、对话回复方法及其装置
CN112214592B (zh) * 2020-11-05 2024-06-11 科大讯飞(北京)有限公司 一种回复对话评分模型训练方法、对话回复方法及其装置
CN115292467A (zh) * 2022-08-10 2022-11-04 北京百度网讯科技有限公司 信息处理与模型训练方法、装置、设备、介质及程序产品
CN115292467B (zh) * 2022-08-10 2023-10-27 北京百度网讯科技有限公司 信息处理与模型训练方法、装置、设备、介质及程序产品

Also Published As

Publication number Publication date
CN110647617B (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
CN110647617B (zh) 对话引导模型的训练样本构建方法和生成模型的方法
JP7130194B2 (ja) ユーザ意図認識方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
EP3862892A1 (en) Session recommendation method and apparatus, and electronic device
CN112533041A (zh) 视频播放方法、装置、电子设备和可读存储介质
CN111105800B (zh) 语音交互处理方法、装置、设备和介质
CN112530437A (zh) 语义识别方法、装置、设备以及存储介质
CN111177355B (zh) 基于搜索数据的人机对话交互方法、装置和电子设备
CN112507735B (zh) 机器翻译模型的训练方法、装置和电子设备
CN112365876B (zh) 语音合成模型的训练方法、装置、设备以及存储介质
CN110717340B (zh) 推荐方法、装置、电子设备及存储介质
CN111354370B (zh) 一种唇形特征预测方法、装置和电子设备
CN110706701B (zh) 语音技能推荐方法、装置、设备及存储介质
CN111881254A (zh) 话术生成方法、装置、电子设备及存储介质
CN114612749A (zh) 神经网络模型训练方法及装置、电子设备和介质
CN111078878A (zh) 文本处理方法、装置、设备及计算机可读存储介质
CN111666387A (zh) 对话生成方法、装置、电子设备及存储介质
JP7051800B2 (ja) 音声制御方法、音声制御装置、電子デバイス、および読み取り可能な記憶媒体
CN111259125A (zh) 语音播报的方法和装置、智能音箱、电子设备、存储介质
CN112329453A (zh) 样本章节的生成方法、装置、设备以及存储介质
CN111899731A (zh) 语音功能的稳定性测试方法、装置、设备和计算机存储介质
CN112650844B (zh) 对话状态的追踪方法、装置、电子设备和存储介质
CN110674338B (zh) 语音技能推荐方法、装置、设备及存储介质
CN112507692B (zh) 建立风格文本生成模型的方法、装置
JP2022028670A (ja) 表示される認識テキストの決定方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
CN111783872A (zh) 训练模型的方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210511

Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Applicant after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

Applicant after: Shanghai Xiaodu Technology Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant