CN108897896A - 基于强化学习的关键词抽取方法 - Google Patents

基于强化学习的关键词抽取方法 Download PDF

Info

Publication number
CN108897896A
CN108897896A CN201810774634.0A CN201810774634A CN108897896A CN 108897896 A CN108897896 A CN 108897896A CN 201810774634 A CN201810774634 A CN 201810774634A CN 108897896 A CN108897896 A CN 108897896A
Authority
CN
China
Prior art keywords
keyword
slot
word
vector
remembered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810774634.0A
Other languages
English (en)
Other versions
CN108897896B (zh
Inventor
张超
徐易楠
杨振宇
刘云峰
吴悦
胡晓
汶林丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Chase Technology Co Ltd
Shenzhen Zhuiyi Technology Co Ltd
Original Assignee
Shenzhen Chase Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Chase Technology Co Ltd filed Critical Shenzhen Chase Technology Co Ltd
Priority to CN201810774634.0A priority Critical patent/CN108897896B/zh
Publication of CN108897896A publication Critical patent/CN108897896A/zh
Priority to PCT/CN2019/089217 priority patent/WO2020010955A1/zh
Application granted granted Critical
Publication of CN108897896B publication Critical patent/CN108897896B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及一种基于强化学习的关键词抽取方法,该方法包括:将所述语料库中第n组对话建立一个关键词记忆槽Gn,将关键词记忆槽Gn初始化后得到关键词记忆槽GL,利用强化学习模型将关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括第n组对话中抽取出关键词词向量。本申请可以显式的关键词内容,并且可以补充下文隐含、缺失的关键内容,有效提高了下文的标准问答回复准确率。

Description

基于强化学习的关键词抽取方法
技术领域
本申请涉及自然语言处理技术领域,尤其是一种基于强化学习的关键词抽取方法。
背景技术
随着互联网企业的用户增多,人工客服由于繁忙不能及时回复用户问题导致用户对企业印象降低,因此智能机器人应运而生。相关技术中,智能机器人的工作方法为:首先是对用户高频、意图明确的热门问题进行分析,抽象成若干类标准问句(Frequently AskedQuestions,简称FAQ),对每一个FAQ由专业的业务人员标记好标准答案,然后针对未来用户的问题,采用技术手段分析该问题是否能够匹配到任何一个已有的FAQ,若成功匹配则将预先标记好的答案返回给用户从而,达到高效地解决用户疑问的效果。但上述智能客服机器人主要为单轮问答,即用户提出一个问题,由智能客服机器人返回给用户一个回答,并终止该问答。而当用户基于上一问答语境继续提问时,由于智能客服机器人无法准备把握上下文内容对话语境,因此常常答非所问,使得用户满意度大大降低,相关技术中,为使智能客服机器人结合上下文情境,在对话中为下文提供额外帮助理解的内容,采用编码-解码的方式,即将上文中整句话进行编码,并在下文的对话中进行解码拼接在下文问句内,作为下文的额外输入。但这种方式无法显式的保存上文对话信息,且将经过编码的上文内容直接拼接到下文中,不仅不能有效提取关键词信息,还会造成数据冗余,不利于在下文对话内容中进行明确的指代消解,对下文问答的辅助作用较小,因此,亟需一种新型的可保障多轮对话持续有效进行的技术方案来解决这一问题。
发明内容
为至少在一定程度上克服相关技术中存在的问题,本申请提供一种基于强化学习的关键词抽取方法,包括:
将多组对话数据组成的语料库进行预处理;
将所述语料库中第n组对话建立一个关键词记忆槽Gn,所述关键词记忆槽Gn用于记录第n组对话的多个历史关键词的词向量;
将关键词记忆槽Gn进行初始化得到关键词记忆槽GL
利用强化学习模型对关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括从第n组对话中抽取的多个关键词的词向量。
进一步的,所述将多组对话数据组成的语料库进行预处理,包括:建立词向量与关键词词语对应关系表,依照所述词向量与关键词词语对应关系表对所述语料库中所有对话的问句和答句进行向量转化,第n组对话中第i个问句进行向量转化得到Si,与第i个问句对应的标准答句进行向量转化得到Yi
更进一步的,所述对所述语料库中所有对话的问句和答句进行向量转化,包括:使用Word2Vec工具将所述语料库中所有对话的问句和与问句对应的标准答句转化为向量形式。
进一步的,所述将关键词记忆槽Gn进行初始化,包括:对关键词记忆槽Gn进行长度初始化和向量初始化,所述长度初始化包括将所述关键词记忆槽Gn的长度设置为L,所述向量初始化包括将所述关键词记忆槽Gn中向量设置为0,得到关键词记忆槽GL=[0,0,...,0]。
进一步的,所述利用强化学习模型对关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,包括:
从句首到句尾依次扫描第n组对话中当前问句Si中的每个词,并以当前扫描词Ci和所述第n组对话的当前关键词记忆槽GL的拼接向量作为状态s,即s=[Ci,GL];
将状态s作为输入带入强化学习模型中,得到输出动作a,所述动作a为取值范围在[0,L]的正整数;
将状态转移概率P(s'|s,a)设置为1,以使状态s每次执行动作a后都能发生状态迁移得到新状态s’;
根据动作a的值判断当前扫描词是否为关键词;
计算奖励函数R(s,a);
根据奖励函数R(s,a)值确定下一次训练时动作a的输出值;
将强化学习训练次数设置为M次,即所述利用强化学习模型对关键词记忆槽GL进行M轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括动作a的输出值。
进一步的,所述根据动作a的值判断当前扫描词是否为关键词,包括:若动作a为0,则当前扫描词Ci不为关键词,否则,将当前扫描词Ci视为关键词,并更新关键词记忆槽GL
更进一步的,所述将当前扫描词Ci视为关键词,并更新关键词记忆槽GL,包括:
将当前扫描词Ci存储到关键词记忆槽GL的第k个位置上,所述k为动作a输出的的值。
进一步的,所述计算奖励函数R(s,a),包括:
若当前扫描词Ci是句尾词,则将当前问句Si与第n组对话的当前关键词记忆槽GL进行向量拼接得到[Ci,GL];
根据所述向量[Ci,GL]输出预测回答向量Pi
计算预测回答向量Pi和标准答句Yi的平方误差的负数作为奖励函数R(s,a),即R(s,a)=-(Pi-Yi)2
若当前扫描词Ci不是句尾词,奖励函数R(s,a)为0。
更进一步的,所述根据所述向量[Si,GL]输出预测回答向量Pi,包括:
将所述向量[Ci,GL]输入神经网络模型,根据所述神经网络模型输出预测回答向量Pi
进一步的,所述方法还包括:
将更新后关键词记忆槽G'L中词向量进行反预处理操作得到关键词词语,所述反预处理操作包括:依据词向量与关键词词语的对应关系表提取词向量对应的关键词词;
或者,将所述关键词记忆槽G'L中的关键词词向量拼接到所述第n组对话的下一问句中,补充所述下一问句中缺失的关键词信息。
本申请的实施例提供的技术方案可以包括以下有益效果:
通过将所述语料库中第n组对话建立一个关键词记忆槽Gn,将关键词记忆槽Gn初始化后得到关键词记忆槽GL,利用强化学习模型将关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括第n组对话中抽取出关键词词向量,将关键词词向量拼接到所述第n组对话的下一问句中,补充所述下一问句中缺失的关键词信息,从而有效提高了下文的标准问答回复准确率,并且可保障多轮对话持续有效进行。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本申请一个实施例提供的基于强化学习的关键词抽取方法的流程图。
图2是本申请另一个实施例提供的基于强化学习的关键词抽取方法的流程图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
图1是本申请一个实施例提供的基于强化学习的关键词抽取方法的流程图。
如图1所示,本实施例的方法包括:
S11:将多组对话数据组成的语料库进行预处理。
所述语料库由多组高频标准问答FAQ的对话数据组成,将所述语料库作为强化学习的交互环境。
所述将多组对话数据组成的语料库进行预处理,包括:建立词向量与关键词词语对应关系表,依照所述词向量与关键词词语对应关系表对所述语料库中所有对话的问句和答句进行向量转化,第n组对话中第i个问句进行向量转化得到Si,与第i个问句对应的标准答句进行向量转化得到Yi
所述对语料库中所有对话的问句和答句进行向量转化,包括:使用Word2Vec工具将所述语料库中所有对话的问句和标准答句转化为向量形式。所述Word2Vec是Google开源的一款用于词向量计算的工具。
S12:将所述语料库中第n组对话建立一个关键词记忆槽Gn,所述关键词记忆槽Gn用于记录第n组对话的多个历史关键词的词向量。
S13:将关键词记忆槽Gn进行初始化得到关键词记忆槽GL
所述将关键词记忆槽Gn进行初始化,包括:对关键词记忆槽Gn进行长度初始化和向量初始化,所述长度初始化包括将所述关键词记忆槽Gn的长度设置为L,所述向量初始化包括将所述关键词记忆槽Gn中向量设置为0,得到关键词记忆槽GL=[0,0,...,0],例如L=5,则GL=[0,0,0,0,0]。
S14:利用强化学习模型对关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括从第n组对话中抽取的多个关键词的词向量。
从句首到句尾依次扫描第n组对话中当前问句Si中的每个词,并以当前扫描词Ci和所述第n组对话的当前关键词记忆槽GL的拼接向量作为状态s,即s=[Ci,GL];
将状态s作为输入带入强化学习模型中,得到输出动作a,所述动作a为取值范围在[0,L]的正整数;
将状态转移概率P(s'|s,a)设置为1,以使状态s每次执行动作a后都能发生状态迁移得到新状态s’;
根据动作a的值判断当前扫描词是否为关键词;
计算奖励函数R(s,a);
根据奖励函数R(s,a)值确定下一次训练时动作a的输出值;
将强化学习训练次数设置为M次,即所述利用强化学习模型对关键词记忆槽GL进行M轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括动作a的输出值。
所述根据动作a的值判断当前扫描词是否为关键词,包括:若动作a为0,则当前扫描词Ci不为关键词,否则,将当前扫描词Ci视为关键词,并更新关键词记忆槽GL
所述将当前扫描词Ci视为关键词,并更新关键词记忆槽GL,包括:
将当前扫描词Ci存储到关键词记忆槽GL的第k个位置上,所述k为动作a输出的的值。
将更新后关键词记忆槽G'L中词向量进行反预处理操作得到关键词词语,所述反预处理操作包括:依据词向量与关键词词语的对应关系表提取词向量对应的关键词词;将更新后记忆槽G'L中词向量进行所述反预处理操作得到关键词词语,方便技术人员直观查看抽取的关键词,技术人员可以根据关键词词语验证和改进强化学习模型。
或者,将所述关键词记忆槽G'L中的关键词词向量拼接到所述第n组对话的下一问句中,补充所述下一问句中缺失的关键词信息。
所述记忆槽G'L中存储了所述语料库中第n组对话的关键词,在用户提出新的问题后,所述方法将所述记忆槽G'L中关键词附加在新的问题后一起带入神经网络模型,从而输出新问题的准确答句。
例如,用户提问1为“我想预定酒店,该如何操作?”,提问2为“如何收费?”,所述方法首先将每个问题进行预处理操作,例如提问1为“我想预定酒店,如何操作?”经过预处理后得到向量S1=[1,2,3,4,5,6,7],词向量与关键词词语的对应关系表如表1所示。
表1
问句关键词词语 问句关键词向量
1
2
预定 3
酒店 4
5
如何 6
操作 7
提问2“如何收费?”转换为向量为S2=[6,8]。在强化学习模型训练集中将给出S1的标准答句Y1,S2的标准答句Y2,Y1、Y2具体内容不再赘述。
为提问1和提问2这组对话建立一个关键词记忆槽Gn,所述关键词记忆槽Gn用于记录提问1的关键词;
将关键词记忆槽Gn进行初始化得到GL,设定L=5,则GL初始化为[0,0,0,0,0];
利用强化学习模型将关键词记忆槽GL更新为关键词记忆槽G'L,所述关键词记忆槽G'L中为从第n组对话中抽取的关键词的词向量。
从句首到句尾依次扫描对话中当前问句S1中的每个词,并以当前扫描词例如为“我”,转化为词向量后为[1]和所述对话的当前关键词记忆槽GL的拼接向量作为状态s,即s=[1,0,0,0,0,0];
将状态s作为输入带入强化学习模型中,得到输出动作a,所述动作a为取值范围在[0,5]的正整数,若a=0,则当前扫描词“我”不是关键词;若a≠0,则当前扫描词“我”是关键词,并将当前扫描词“我”存储到关键词记忆槽GL的第k个位置上,所述k为动作a输出的的值,例如为k=5,则更新为关键词记忆槽G'L=[0,0,0,0,1];因为当前扫描词“我”不是句尾词,奖励函数R(s,a)为0,继续扫描下一词“想”,因为状态转移概率P(s'|s,a)为1,则得到新状态s’=[2,0,0,0,0,1],由新状态s’得到的新动作a’,若a’=3,当前关键词记忆槽更新为[0,0,2,0,1];依次扫描提问1句的所有词语,直到当前扫描词为句尾词“操作”,计算奖励函数R(s,a),根据奖励函数R(s,a)不断修正动作a的输出。
重复上述过程M次后,设定M=100,使得最终输出关键词记忆槽G'L=[6,4,1,2,3]结果为将关键词“酒店”带入提问2中,通过神经网络模型后输出预测答句与训练集中标注答句Y2误差最小,以保障多轮对话持续有效进行。
可以理解的是,所述方法对使用场景与具体对话内容无严格限制,以及对强化学习模型的训练过程和参数范围无严格限制以及对预测回答的计算方法包括但不限于神经网络模型。
本实施例中,通过将所述语料库中第n组对话建立一个关键词记忆槽Gn,将关键词记忆槽Gn初始化后得到关键词记忆槽GL,利用强化学习模型将关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括第n组对话中抽取出关键词词向量,有效提高了下文的标准问答回复准确率,并且可保障多轮对话持续有效进行,并且,显式抽取上文关键词并拼接到下文内容中,可使技术人员直观看到关键词内容,便于对算法和模型进行调整,以输出最准确的关键词。
图2是本申请另一个实施例提供的基于强化学习的关键词抽取方法的流程图。
如图2所示,本实施例在上一实施例基础上,所述计算奖励函数R(s,a)的方法包括:
S21:判断当前扫描词Ci是否为句尾词,若不是句尾词进入步骤S22;若是句尾词进入S23;
S22:若当前扫描词Ci不是句尾词,奖励函数R(s,a)为0;
S23:若当前扫描词Ci是句尾词,则将当前问句Si与第n组对话的当前关键词记忆槽GL进行向量拼接得到[Ci,GL];
S24:根据所述向量[Ci,GL]输出预测回答向量Pi
将所述向量[Ci,GL]输入神经网络模型,根据所述神经网络模型输出预测回答向量Pi。所述神经网络模型为现有技术,例如为申请公布号为CN107562792A《一种基于深度学习的问答匹配方法》中公布的卷积神经网络模型。
S25:计算预测回答向量Pi和标准答句Yi的平方误差的负数作为奖励函数R(s,a),即R(s,a)=-(Pi-Yi)2
奖励函数R(s,a)值越大,说明输出的动作越满足状态的要求,即输出的关键词向量越准确,在下一次训练中,动作a会趋向于奖励函数R(s,a)值大的方向输出,通过奖励函数R(s,a)的作用,可以使强化学习模型筛选出满足上下文语境要求的关键词,从而提高客服机器人回复准确率。
本实施例中,通过对强化学习模型中参数的选取与调整,不断寻求最准确的关键词与下文进行结合以得到最准确答句,从而提高客服机器人智能性。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
需要说明的是,本发明不局限于上述最佳实施方式,本领域技术人员在本发明的启示下都可得出其他各种形式的产品,但不论在其形状或结构上作任何变化,凡是具有与本申请相同或相近似的技术方案,均落在本发明的保护范围之内。

Claims (10)

1.一种基于强化学习的关键词抽取方法,其特征在于,包括:
将多组对话数据组成的语料库进行预处理;
将所述语料库中第n组对话建立一个关键词记忆槽Gn,所述关键词记忆槽Gn用于记录第n组对话的多个历史关键词的词向量;
将关键词记忆槽Gn进行初始化得到关键词记忆槽GL
利用强化学习模型对关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括从第n组对话中抽取的多个关键词的词向量。
2.根据权利要求1所述的方法,其特征在于,所述将多组对话数据组成的语料库进行预处理,包括:建立词向量与关键词词语对应关系表,依照所述词向量与关键词词语对应关系表对所述语料库中所有对话的问句和答句进行向量转化,第n组对话中第i个问句进行向量转化得到Si,与第i个问句对应的标准答句进行向量转化得到Yi
3.根据权利要求2所述的方法,其特征在于,所述对所述语料库中所有对话的问句和答句进行向量转化,包括:使用Word2Vec工具将所述语料库中所有对话的问句和与问句对应的标准答句转化为向量形式。
4.根据权利要求1所述的方法,其特征在于,所述将关键词记忆槽Gn进行初始化,包括:对关键词记忆槽Gn进行长度初始化和向量初始化,所述长度初始化包括将所述关键词记忆槽Gn的长度设置为L,所述向量初始化包括将所述关键词记忆槽Gn中向量设置为0,得到关键词记忆槽GL=[0,0,...,0]。
5.根据权利要求1所述的方法,其特征在于,所述利用强化学习模型对关键词记忆槽GL进行多轮更新得到关键词记忆槽G'L,包括:
从句首到句尾依次扫描第n组对话中当前问句Si中的每个词,并以当前扫描词Ci和所述第n组对话的当前关键词记忆槽GL的拼接向量作为状态s,即s=[Ci,GL];
将状态s作为输入带入强化学习模型中,得到输出动作a,所述动作a为取值范围在[0,L]的正整数;
将状态转移概率P(s'|s,a)设置为1,以使状态s每次执行动作a后都能发生状态迁移得到新状态s’;
根据动作a的值判断当前扫描词是否为关键词;
计算奖励函数R(s,a);
根据奖励函数R(s,a)值确定下一次训练时动作a的输出值;
将强化学习训练次数设置为M次,即所述利用强化学习模型对关键词记忆槽GL进行M轮更新得到关键词记忆槽G'L,所述关键词记忆槽G'L中包括动作a的输出值。
6.根据权利要求5所述的方法,其特征在于,所述根据动作a的值判断当前扫描词是否为关键词,包括:若动作a为0,则当前扫描词Ci不为关键词,否则,将当前扫描词Ci视为关键词,并更新关键词记忆槽GL
7.根据权利要求6所述的方法,其特征在于,所述将当前扫描词Ci视为关键词,并更新关键词记忆槽GL,包括:
将当前扫描词Ci存储到关键词记忆槽GL的第k个位置上,所述k为动作a输出的的值。
8.根据权利要求5所述的方法,其特征在于,所述计算奖励函数R(s,a),包括:
若当前扫描词Ci是句尾词,则将当前问句Si与第n组对话的当前关键词记忆槽GL进行向量拼接得到[Ci,GL];
根据所述向量[Ci,GL]输出预测回答向量Pi
计算预测回答向量Pi和标准答句Yi的平方误差的负数作为奖励函数R(s,a),即R(s,a)=-(Pi-Yi)2
若当前扫描词Ci不是句尾词,奖励函数R(s,a)为0。
9.根据权利要求8所述的方法,其特征在于,所述根据所述向量[Si,GL]输出预测回答向量Pi,包括:
将所述向量[Ci,GL]输入神经网络模型,根据所述神经网络模型输出预测回答向量Pi
10.根据权利要求1或2任一项所述的方法,其特征在于,还包括:
将更新后关键词记忆槽G'L中词向量进行反预处理操作得到关键词词语,所述反预处理操作包括:依据词向量与关键词词语的对应关系表提取词向量对应的关键词词;
或者,将所述关键词记忆槽G'L中的关键词词向量拼接到所述第n组对话的下一问句中,以补充所述下一问句中缺失的关键词信息。
CN201810774634.0A 2018-07-13 2018-07-13 基于强化学习的关键词抽取方法 Active CN108897896B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810774634.0A CN108897896B (zh) 2018-07-13 2018-07-13 基于强化学习的关键词抽取方法
PCT/CN2019/089217 WO2020010955A1 (zh) 2018-07-13 2019-05-30 基于强化学习的关键词抽取方法、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810774634.0A CN108897896B (zh) 2018-07-13 2018-07-13 基于强化学习的关键词抽取方法

Publications (2)

Publication Number Publication Date
CN108897896A true CN108897896A (zh) 2018-11-27
CN108897896B CN108897896B (zh) 2020-06-02

Family

ID=64349353

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810774634.0A Active CN108897896B (zh) 2018-07-13 2018-07-13 基于强化学习的关键词抽取方法

Country Status (2)

Country Link
CN (1) CN108897896B (zh)
WO (1) WO2020010955A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008332A (zh) * 2019-02-13 2019-07-12 阿里巴巴集团控股有限公司 通过强化学习提取主干词的方法及装置
CN110377713A (zh) * 2019-07-16 2019-10-25 杭州微洱网络科技有限公司 一种基于概率转移改善问答系统上下文的方法
CN110427625A (zh) * 2019-07-31 2019-11-08 腾讯科技(深圳)有限公司 语句补全方法、装置、介质及对话处理系统
CN110569344A (zh) * 2019-08-22 2019-12-13 阿里巴巴集团控股有限公司 确定对话文本对应的标准问句的方法和装置
WO2020010955A1 (zh) * 2018-07-13 2020-01-16 深圳追一科技有限公司 基于强化学习的关键词抽取方法、计算机设备和存储介质
CN111881267A (zh) * 2020-05-25 2020-11-03 重庆兆光科技股份有限公司 一种抽取对话语料中关键语句的方法、系统、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930318A (zh) * 2016-04-11 2016-09-07 深圳大学 一种词向量训练方法及系统
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN108090049A (zh) * 2018-01-17 2018-05-29 山东工商学院 基于句子向量的多文档摘要自动提取方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8611676B2 (en) * 2005-07-26 2013-12-17 Sony Corporation Information processing apparatus, feature extraction method, recording media, and program
CN106095749A (zh) * 2016-06-03 2016-11-09 杭州量知数据科技有限公司 一种基于深度学习的文本关键词提取方法
CN108897896B (zh) * 2018-07-13 2020-06-02 深圳追一科技有限公司 基于强化学习的关键词抽取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930318A (zh) * 2016-04-11 2016-09-07 深圳大学 一种词向量训练方法及系统
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN108090049A (zh) * 2018-01-17 2018-05-29 山东工商学院 基于句子向量的多文档摘要自动提取方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010955A1 (zh) * 2018-07-13 2020-01-16 深圳追一科技有限公司 基于强化学习的关键词抽取方法、计算机设备和存储介质
CN110008332A (zh) * 2019-02-13 2019-07-12 阿里巴巴集团控股有限公司 通过强化学习提取主干词的方法及装置
CN110008332B (zh) * 2019-02-13 2020-11-10 创新先进技术有限公司 通过强化学习提取主干词的方法及装置
CN110377713A (zh) * 2019-07-16 2019-10-25 杭州微洱网络科技有限公司 一种基于概率转移改善问答系统上下文的方法
CN110377713B (zh) * 2019-07-16 2023-09-15 广州探域科技有限公司 一种基于概率转移改善问答系统上下文的方法
CN110427625A (zh) * 2019-07-31 2019-11-08 腾讯科技(深圳)有限公司 语句补全方法、装置、介质及对话处理系统
CN110569344A (zh) * 2019-08-22 2019-12-13 阿里巴巴集团控股有限公司 确定对话文本对应的标准问句的方法和装置
CN111881267A (zh) * 2020-05-25 2020-11-03 重庆兆光科技股份有限公司 一种抽取对话语料中关键语句的方法、系统、设备及介质

Also Published As

Publication number Publication date
WO2020010955A1 (zh) 2020-01-16
CN108897896B (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN108897896A (zh) 基于强化学习的关键词抽取方法
CN110188331B (zh) 模型训练方法、对话系统评价方法、装置、设备及存储介质
JP7276712B2 (ja) 意味分析方法、装置、および記憶媒体
CN109241258A (zh) 一种应用税务领域的深度学习智能问答系统
CN107562863A (zh) 聊天机器人回复自动生成方法及系统
CN108763444A (zh) 利用分层编码解码器网络机制来解决视频问答的方法
CN108829756B (zh) 一种利用分层注意力上下文网络解决多轮视频问答的方法
CN112308370B (zh) 一种基于Transformer的面向思政课程的主观题自动评分方法
CN112115246A (zh) 基于对话的内容推荐方法、装置、计算机设备及存储介质
CN113255763B (zh) 基于知识蒸馏的模型训练方法、装置、终端及存储介质
CN109325780A (zh) 一种面向电子政务领域的智能客服系统的交互方法
CN114818703B (zh) 基于BERT语言模型和TextCNN模型的多意图识别方法及系统
CN111400461A (zh) 智能客服问题匹配方法及装置
CN111783423A (zh) 解题模型的训练方法及装置、解题方法及装置
CN108959388A (zh) 信息生成方法及装置
CN114168707A (zh) 一种面向推荐的情绪型对话方法
CN114048301B (zh) 一种基于满意度的用户模拟方法及系统
Ferreira et al. Adversarial bandit for online interactive active learning of zero-shot spoken language understanding
CN112445899A (zh) 一种基于神经网络的知识库问答中的属性匹配方法
CN110851580A (zh) 一种基于结构化用户属性描述的个性化任务型对话系统
KR102388911B1 (ko) 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법
CN114282549A (zh) 信息间根因关系的识别方法、装置、电子设备及存储介质
CN114266340A (zh) 一种引入自注意力机制的知识查询网络模型
CN115619363A (zh) 一种面试方法及装置
CN115525742A (zh) 一种基于表示学习的知识图谱问答方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant