CN111680148A - 针对用户问句进行智能应答的方法和装置 - Google Patents

针对用户问句进行智能应答的方法和装置 Download PDF

Info

Publication number
CN111680148A
CN111680148A CN202010819216.6A CN202010819216A CN111680148A CN 111680148 A CN111680148 A CN 111680148A CN 202010819216 A CN202010819216 A CN 202010819216A CN 111680148 A CN111680148 A CN 111680148A
Authority
CN
China
Prior art keywords
question
user
user question
trained
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010819216.6A
Other languages
English (en)
Other versions
CN111680148B (zh
Inventor
张�杰
王雅芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010819216.6A priority Critical patent/CN111680148B/zh
Publication of CN111680148A publication Critical patent/CN111680148A/zh
Application granted granted Critical
Publication of CN111680148B publication Critical patent/CN111680148B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供一种针对用户问句进行智能应答的方法和装置,方法包括:获取当前多轮对话中的用户问句;将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。

Description

针对用户问句进行智能应答的方法和装置
技术领域
本说明书一个或多个实施例涉及计算机领域,尤其涉及针对用户问句进行智能应答的方法和装置。
背景技术
在智能客服领域,机器人客服面对的用户问题趋于多样化,针对用户问句进行智能应答的难度也越来越大。
现有技术中,通常先对用户描述进行标问分类,将用户问句分类到已有的标准问句中,再将该标准问句对应的答案输出给用户,作为针对用户问句的回答。由于用户表述通常比较简略,可能存在分类的标准问句不符合用户诉求的情况,用户体验不佳。
因此,希望能有改进的方案,在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。
发明内容
本说明书一个或多个实施例描述了一种针对用户问句进行智能应答的方法和装置,在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。
第一方面,提供了一种针对用户问句进行智能应答的方法,方法包括:
获取当前多轮对话中的用户问句;
将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;
当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;
当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。
在一种可能的实施方式中,所述根据所述第一要素确定针对所述用户问句的第二应答语句,包括:
当所述第一要素为诉求要素时,确定所述用户问句中缺失的业务要素;
对应于缺失的业务要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的业务要素进行反问。
进一步地,所述方法还包括:
接收用户针对所述反问的补充信息;
根据所述补充信息和所述用户问句,确定所述用户问句对应的第二标准问句,并根据所述第二标准问句确定针对所述用户问句的第三应答语句。
在一种可能的实施方式中,所述模糊分类模型基于第一类训练样本和第二类训练样本预先训练;所述第一类训练样本包括第一用户问句和第一标签,所述第一标签对应于所述第一类别;所述第二类训练样本包括第二用户问句和第二标签,所述第二标签对应于所述第二类别。
进一步地,所述第一用户问句包含业务要素和诉求要素;所述第二用户问句仅包含业务要素或仅包含诉求要素。
进一步地,所述模糊分类模型是bert模型;
所述模糊分类模型的训练方式如下:
获取经过预训练任务预训练的bert模型;
利用所述第一类训练样本和所述第二类训练样本对预训练的bert模型进行微调。
在一种可能的实施方式中,所述识别所述用户问句对应的第一标准问句,包括:
将所述用户问句输入预先训练的问题识别模型,得到所述用户问句对应的第一标准问句。
进一步地,所述问题识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的标问分类标签;
利用已训练的第一神经网络模型,预测各个用户问句在各个标问分类上的第一概率得分,其中所述第一神经网络模型的层数为N;
利用待训练的所述问题识别模型,预测各个用户问句在各个标问分类上的第二概率得分,其中,所述问题识别模型的层数为M,M<N;
根据所述第二概率得分和所述第一概率得分,确定第一预测损失;
根据所述第二概率得分和各个用户问句的标问分类标签,确定第二预测损失;
将所述第一预测损失与所述第二预测损失进行加权求和,得到第一总损失;
以最小化所述第一总损失为训练目标,对所述问题识别模型进行训练。
在一种可能的实施方式中,所述识别所述用户问句包含的第一要素,包括:
将所述用户问句输入预先训练的要素识别模型,得到所述用户问句包含的第一要素。
进一步地,所述要素识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的要素分类标签;
利用已训练的第二神经网络模型,预测各个用户问句在各个要素分类上的第三概率得分,其中所述第二神经网络模型的层数为P;
利用待训练的所述要素识别模型,预测各个用户问句在各个要素分类上的第四概率得分,其中,所述要素识别模型的层数为Q,Q<P;
根据所述第四概率得分和所述第三概率得分,确定第三预测损失;
根据所述第四概率得分和各个用户问句的要素分类标签,确定第四预测损失;
将所述第三预测损失与所述第四预测损失进行加权求和,得到第二总损失;
以最小化所述第二总损失为训练目标,对所述要素识别模型进行训练。
第二方面,提供了一种针对用户问句进行智能应答的装置,装置包括:
获取单元,用于获取当前多轮对话中的用户问句;
模糊分类单元,用于将所述获取单元获取的用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;
第一应答单元,用于当所述模糊分类单元得到的目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;
第二应答单元,用于当所述模糊分类单元得到的目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。
第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面的方法。
第四方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
通过本说明书实施例提供的方法和装置,首先获取当前多轮对话中的用户问句;然后将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;根据模糊分类模型的输出结果,选择后续的处理流程,当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。由上可见,本说明书实施例先对用户问句进行了模糊分类,再决定进行标问识别还是要素识别,而不是统一直接对用户问句进行标问识别或要素识别,从而在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本说明书披露的一个实施例的实施场景示意图;
图2示出根据一个实施例的针对用户问句进行智能应答的方法流程图;
图3示出根据一个实施例的针对用户问句进行智能应答的装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
图1为本说明书披露的一个实施例的实施场景示意图。该实施场景涉及针对用户问句进行智能应答。人工智能(artificial intelligence,AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能通常基于机器学习来实现,深度学习(deep learning)是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习常常用来识别用户问句对应的标识问句,或用来识别用户问句包含的要素。
标准问句,在智能客服中,通过对所有用户的问题咨询进行聚类,人工处理等方式,将问题咨询总结成标准问题库,在用户来电咨询时,可以将用户的问题咨询分类到其中某个标准问句(简称:标问),由机器人客服提供该标准问句对应的答案,或分配到相应的人工客服进行咨询答复。
要素,通过对标准问句进行结构化整理,将每个标准问句整理出相应的诉求要素和业务要素,用于辅助用户来电咨询的标问分类。其中,业务要素指的是该标准问句对应的分支业务的业务类别,例如相互保,诉求要素指的是用户的要求或者意图,比如退保。
由于不同用户对于问题描述的完整性不同,部分用户问句描述咨询问题较模糊,模糊代表用户问句未同时包含业务要素和诉求要素;而部分用户则能清晰描述问题,用户问句同时包含业务要素和诉求要素,能够准确定位到标准问句。参照图1,用户问句1为“我想咨询如何修改本月花呗还款日”,其中包含的业务要素为“花呗还款”,诉求要素为“花呗还款日”,用户问句1为清晰的描述;用户问句2为“我想咨询花呗还款”,其中包含的业务要素为“花呗还款”,缺乏诉求要素,用户问句2为模糊的描述。
面对问题描述的模糊性,若只通过对用户问句进行标问分类,将用户问句分类到已有标准问句中,往往对模糊描述的用户极不友好 ;若采用将用户问句分类到要素,则会增加和用户交互轮数。因此本说明书实施例先对用户问句是否模糊进行判断,然后再对用户问句进行标问分类或要素分类,以提升用户体验。
图2示出根据一个实施例的针对用户问句进行智能应答的方法流程图,该方法可以基于图1所示的实施场景。如图2所示,该实施例中针对用户问句进行智能应答的方法包括以下步骤:步骤21,获取当前多轮对话中的用户问句;步骤22,将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;步骤23,当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;步骤24,当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。下面描述以上各个步骤的具体执行方式。
首先在步骤21,获取当前多轮对话中的用户问句。可以理解的是,获取的用户问句可以仅为当前轮的用户文本,或者,获取的用户问句可以不仅包括当前轮的用户文本,还包括之前轮的用户文本。
举例来说,若当前多轮对话刚进行到第一轮对话,则可以获取该第一轮对话的用户文本;若当前多轮对话进行到第二轮对话,则可以获取第一轮对话的用户文本和第二轮对话的用户文本;若当前多轮对话进行到第三轮对话,则可以获取第一轮对话的用户文本、第二轮对话的用户文本和第三轮对话的用户文本。
然后在步骤22,将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊。可以理解的是,模糊分类模型可以基于有标签的样本进行预先训练。
在一个示例中,所述模糊分类模型基于第一类训练样本和第二类训练样本预先训练;所述第一类训练样本包括第一用户问句和第一标签,所述第一标签对应于所述第一类别;所述第二类训练样本包括第二用户问句和第二标签,所述第二标签对应于所述第二类别。
进一步地,所述第一用户问句包含业务要素和诉求要素;所述第二用户问句仅包含业务要素或仅包含诉求要素。
进一步地,所述模糊分类模型是bert模型;
所述模糊分类模型的训练方式如下:
获取经过预训练任务预训练的bert模型;
利用所述第一类训练样本和所述第二类训练样本对预训练的bert模型进行微调。
其中,上述预训练任务可以采用通常的字遮蔽训练任务,以及连续语句预测训练任务。
接着在步骤23,当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句。可以理解的是,当用户描述清晰时,识别出的标准问句会较大概率符合用户诉求。
本说明书实施例中,第一应答语句具体可以提供第一标准问句对应的答案或者该答案的链接。第一应答语句还可以请求用户确认第一标准问句是否符合其诉求。
在一个示例中,所述识别所述用户问句对应的第一标准问句,包括:
将所述用户问句输入预先训练的问题识别模型,得到所述用户问句对应的第一标准问句。
进一步地,所述问题识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的标问分类标签;
利用已训练的第一神经网络模型,预测各个用户问句在各个标问分类上的第一概率得分,其中所述第一神经网络模型的层数为N;
利用待训练的所述问题识别模型,预测各个用户问句在各个标问分类上的第二概率得分,其中,所述问题识别模型的层数为M,M<N;
根据所述第二概率得分和所述第一概率得分,确定第一预测损失;
根据所述第二概率得分和各个用户问句的标问分类标签,确定第二预测损失;
将所述第一预测损失与所述第二预测损失进行加权求和,得到第一总损失;
以最小化所述第一总损失为训练目标,对所述问题识别模型进行训练。
根据上述训练方式,利用了已训练的第一神经网络模型的预测结果,其中,第一神经网络模型相对于问题识别模型来说,结构复杂,通过引入第一神经网络模型的预测结果,诱导问题识别模型的训练,实现知识迁移,从而使得问题识别模型能够在准确识别用户问句的基础上,降低资源消耗,提升处理速度,也就是说,通过这种训练问题识别模型的方式,节省了大量运算资源而模型效果与之前基本没有大的差异。
最后在步骤24,当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。可以理解的是,当用户描述模糊时,不容易识别出符合用户诉求的标准问句,通过要素识别,更容易满足用户诉求。
在一个示例中,所述根据所述第一要素确定针对所述用户问句的第二应答语句,包括:
当所述第一要素为诉求要素时,确定所述用户问句中缺失的业务要素;
对应于缺失的业务要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的业务要素进行反问;或者,
当所述第一要素为业务要素时,确定所述用户问句中缺失的诉求要素;
对应于缺失的诉求要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的诉求要素进行反问。
可以理解的是,可以基于知识图谱确定用户问句中缺失的业务要素或缺失的诉求要素,或者,从用户常问的高频词汇中确定用户问句中缺失的业务要素或缺失的诉求要素。
进一步地,所述方法还包括:
接收用户针对所述反问的补充信息;
根据所述补充信息和所述用户问句,确定所述用户问句对应的第二标准问句,并根据所述第二标准问句确定针对所述用户问句的第三应答语句。
在一个示例中,所述识别所述用户问句包含的第一要素,包括:
将所述用户问句输入预先训练的要素识别模型,得到所述用户问句包含的第一要素。
进一步地,所述要素识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的要素分类标签;
利用已训练的第二神经网络模型,预测各个用户问句在各个要素分类上的第三概率得分,其中所述第二神经网络模型的层数为P;
利用待训练的所述要素识别模型,预测各个用户问句在各个要素分类上的第四概率得分,其中,所述要素识别模型的层数为Q,Q<P;
根据所述第四概率得分和所述第三概率得分,确定第三预测损失;
根据所述第四概率得分和各个用户问句的要素分类标签,确定第四预测损失;
将所述第三预测损失与所述第四预测损失进行加权求和,得到第二总损失;
以最小化所述第二总损失为训练目标,对所述要素识别模型进行训练。
根据上述训练方式,利用了已训练的第二神经网络模型的预测结果,其中,第二神经网络模型相对于要素识别模型来说,结构复杂,通过引入第二神经网络模型的预测结果,诱导要素识别模型的训练,实现知识迁移,从而使得要素识别模型能够在准确识别要素的基础上,降低资源消耗,提升处理速度,也就是说,通过这种训练要素识别模型的方式,节省了大量运算资源而模型效果与之前基本没有大的差异。
本说明书实施例中,上述第一神经网络模型和第二神经网络模型可以为bert模型。
通过上述训练方式,使得问题识别模型和要素识别模型可以部署在同一终端设备或服务器上,从而提升智能问答的流畅性。
通过本说明书实施例提供的方法,首先获取当前多轮对话中的用户问句;然后将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;根据模糊分类模型的输出结果,选择后续的处理流程,当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。由上可见,本说明书实施例先对用户问句进行了模糊分类,再决定进行标问识别还是要素识别,而不是统一直接对用户问句进行标问识别或要素识别,从而在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。
根据另一方面的实施例,还提供一种针对用户问句进行智能应答的装置,该装置用于执行本说明书实施例提供的针对用户问句进行智能应答的方法。图3示出根据一个实施例的针对用户问句进行智能应答的装置的示意性框图。如图3所示,该装置300包括:
获取单元31,用于获取当前多轮对话中的用户问句;
模糊分类单元32,用于将所述获取单元31获取的用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;
第一应答单元33,用于当所述模糊分类单元32得到的目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;
第二应答单元34,用于当所述模糊分类单元32得到的目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。
可选地,作为一个实施例,所述第二应答单元34包括:
要素确定子单元,用于当所述第一要素为诉求要素时,确定所述用户问句中缺失的业务要素;
第一应答子单元,用于对应于所述要素确定子单元确定的缺失的业务要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的业务要素进行反问。
进一步地,所述装置还包括:
接收单元,用于接收用户针对所述反问的补充信息;
第三应答单元,用于根据所述接收单元接收的补充信息和所述用户问句,确定所述用户问句对应的第二标准问句,并根据所述第二标准问句确定针对所述用户问句的第三应答语句。
可选地,作为一个实施例,所述模糊分类模型基于第一类训练样本和第二类训练样本预先训练;所述第一类训练样本包括第一用户问句和第一标签,所述第一标签对应于所述第一类别;所述第二类训练样本包括第二用户问句和第二标签,所述第二标签对应于所述第二类别。
进一步地,所述第一用户问句包含业务要素和诉求要素;所述第二用户问句仅包含业务要素或仅包含诉求要素。
进一步地,所述模糊分类模型是bert模型;
所述模糊分类模型的训练方式如下:
获取经过预训练任务预训练的bert模型;
利用所述第一类训练样本和所述第二类训练样本对预训练的bert模型进行微调。
可选地,作为一个实施例,所述第一应答单元33,具体用于将所述用户问句输入预先训练的问题识别模型,得到所述用户问句对应的第一标准问句。
进一步地,所述问题识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的标问分类标签;
利用已训练的第一神经网络模型,预测各个用户问句在各个标问分类上的第一概率得分,其中所述第一神经网络模型的层数为N;
利用待训练的所述问题识别模型,预测各个用户问句在各个标问分类上的第二概率得分,其中,所述问题识别模型的层数为M,M<N;
根据所述第二概率得分和所述第一概率得分,确定第一预测损失;
根据所述第二概率得分和各个用户问句的标问分类标签,确定第二预测损失;
将所述第一预测损失与所述第二预测损失进行加权求和,得到第一总损失;
以最小化所述第一总损失为训练目标,对所述问题识别模型进行训练。
可选地,作为一个实施例,所述第二应答单元34,具体用于将所述用户问句输入预先训练的要素识别模型,得到所述用户问句包含的第一要素。
进一步地,所述要素识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的要素分类标签;
利用已训练的第二神经网络模型,预测各个用户问句在各个要素分类上的第三概率得分,其中所述第二神经网络模型的层数为P;
利用待训练的所述要素识别模型,预测各个用户问句在各个要素分类上的第四概率得分,其中,所述要素识别模型的层数为Q,Q<P;
根据所述第四概率得分和所述第三概率得分,确定第三预测损失;
根据所述第四概率得分和各个用户问句的要素分类标签,确定第四预测损失;
将所述第三预测损失与所述第四预测损失进行加权求和,得到第二总损失;
以最小化所述第二总损失为训练目标,对所述要素识别模型进行训练。
通过本说明书实施例提供的装置,首先获取单元31获取当前多轮对话中的用户问句;然后模糊分类单元32将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;根据模糊分类模型的输出结果,选择后续的处理流程,当所述目标类别为所述第一类别时,第一应答单元33识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;当所述目标类别为所述第二类别时,第二应答单元34识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。由上可见,本说明书实施例先对用户问句进行了模糊分类,再决定进行标问识别还是要素识别,而不是统一直接对用户问句进行标问识别或要素识别,从而在针对用户问句进行智能应答时,能够灵活应对,提升用户体验。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2所描述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (22)

1.一种针对用户问句进行智能应答的方法,所述方法包括:
获取当前多轮对话中的用户问句;
将所述用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;
当所述目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;
当所述目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。
2.如权利要求1所述的方法,其中,所述根据所述第一要素确定针对所述用户问句的第二应答语句,包括:
当所述第一要素为诉求要素时,确定所述用户问句中缺失的业务要素;
对应于缺失的业务要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的业务要素进行反问。
3.如权利要求2所述的方法,其中,所述方法还包括:
接收用户针对所述反问的补充信息;
根据所述补充信息和所述用户问句,确定所述用户问句对应的第二标准问句,并根据所述第二标准问句确定针对所述用户问句的第三应答语句。
4.如权利要求1所述的方法,其中,所述模糊分类模型基于第一类训练样本和第二类训练样本预先训练;所述第一类训练样本包括第一用户问句和第一标签,所述第一标签对应于所述第一类别;所述第二类训练样本包括第二用户问句和第二标签,所述第二标签对应于所述第二类别。
5.如权利要求4所述的方法,其中,所述第一用户问句包含业务要素和诉求要素;所述第二用户问句仅包含业务要素或仅包含诉求要素。
6.如权利要求4所述的方法,其中,所述模糊分类模型是bert模型;
所述模糊分类模型的训练方式如下:
获取经过预训练任务预训练的bert模型;
利用所述第一类训练样本和所述第二类训练样本对预训练的bert模型进行微调。
7.如权利要求1所述的方法,其中,所述识别所述用户问句对应的第一标准问句,包括:
将所述用户问句输入预先训练的问题识别模型,得到所述用户问句对应的第一标准问句。
8.如权利要求7所述的方法,其中,所述问题识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的标问分类标签;
利用已训练的第一神经网络模型,预测各个用户问句在各个标问分类上的第一概率得分,其中所述第一神经网络模型的层数为N;
利用待训练的所述问题识别模型,预测各个用户问句在各个标问分类上的第二概率得分,其中,所述问题识别模型的层数为M,M<N;
根据所述第二概率得分和所述第一概率得分,确定第一预测损失;
根据所述第二概率得分和各个用户问句的标问分类标签,确定第二预测损失;
将所述第一预测损失与所述第二预测损失进行加权求和,得到第一总损失;
以最小化所述第一总损失为训练目标,对所述问题识别模型进行训练。
9.如权利要求1所述的方法,其中,所述识别所述用户问句包含的第一要素,包括:
将所述用户问句输入预先训练的要素识别模型,得到所述用户问句包含的第一要素。
10.如权利要求9所述的方法,其中,所述要素识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的要素分类标签;
利用已训练的第二神经网络模型,预测各个用户问句在各个要素分类上的第三概率得分,其中所述第二神经网络模型的层数为P;
利用待训练的所述要素识别模型,预测各个用户问句在各个要素分类上的第四概率得分,其中,所述要素识别模型的层数为Q,Q<P;
根据所述第四概率得分和所述第三概率得分,确定第三预测损失;
根据所述第四概率得分和各个用户问句的要素分类标签,确定第四预测损失;
将所述第三预测损失与所述第四预测损失进行加权求和,得到第二总损失;
以最小化所述第二总损失为训练目标,对所述要素识别模型进行训练。
11.一种针对用户问句进行智能应答的装置,所述装置包括:
获取单元,用于获取当前多轮对话中的用户问句;
模糊分类单元,用于将所述获取单元获取的用户问句输入预先训练的模糊分类模型,通过所述模糊分类模型输出目标类别;所述目标类别选自第一类别和第二类别,所述第一类别表明所述用户问句描述清晰,所述第二类别表明所述用户问句描述模糊;
第一应答单元,用于当所述模糊分类单元得到的目标类别为所述第一类别时,识别所述用户问句对应的第一标准问句,并根据所述第一标准问句确定针对所述用户问句的第一应答语句;
第二应答单元,用于当所述模糊分类单元得到的目标类别为所述第二类别时,识别所述用户问句包含的第一要素,并根据所述第一要素确定针对所述用户问句的第二应答语句。
12.如权利要求11所述的装置,其中,所述第二应答单元包括:
要素确定子单元,用于当所述第一要素为诉求要素时,确定所述用户问句中缺失的业务要素;
第一应答子单元,用于对应于所述要素确定子单元确定的缺失的业务要素,确定针对所述用户问句的第二应答语句,所述第二应答语句用于针对缺失的业务要素进行反问。
13.如权利要求12所述的装置,其中,所述装置还包括:
接收单元,用于接收用户针对所述反问的补充信息;
第三应答单元,用于根据所述接收单元接收的补充信息和所述用户问句,确定所述用户问句对应的第二标准问句,并根据所述第二标准问句确定针对所述用户问句的第三应答语句。
14.如权利要求11所述的装置,其中,所述模糊分类模型基于第一类训练样本和第二类训练样本预先训练;所述第一类训练样本包括第一用户问句和第一标签,所述第一标签对应于所述第一类别;所述第二类训练样本包括第二用户问句和第二标签,所述第二标签对应于所述第二类别。
15.如权利要求14所述的装置,其中,所述第一用户问句包含业务要素和诉求要素;所述第二用户问句仅包含业务要素或仅包含诉求要素。
16.如权利要求14所述的装置,其中,所述模糊分类模型是bert模型;
所述模糊分类模型的训练方式如下:
获取经过预训练任务预训练的bert模型;
利用所述第一类训练样本和所述第二类训练样本对预训练的bert模型进行微调。
17.如权利要求11所述的装置,其中,所述第一应答单元,具体用于将所述用户问句输入预先训练的问题识别模型,得到所述用户问句对应的第一标准问句。
18.如权利要求17所述的装置,其中,所述问题识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的标问分类标签;
利用已训练的第一神经网络模型,预测各个用户问句在各个标问分类上的第一概率得分,其中所述第一神经网络模型的层数为N;
利用待训练的所述问题识别模型,预测各个用户问句在各个标问分类上的第二概率得分,其中,所述问题识别模型的层数为M,M<N;
根据所述第二概率得分和所述第一概率得分,确定第一预测损失;
根据所述第二概率得分和各个用户问句的标问分类标签,确定第二预测损失;
将所述第一预测损失与所述第二预测损失进行加权求和,得到第一总损失;
以最小化所述第一总损失为训练目标,对所述问题识别模型进行训练。
19.如权利要求11所述的装置,其中,所述第二应答单元,具体用于将所述用户问句输入预先训练的要素识别模型,得到所述用户问句包含的第一要素。
20.如权利要求19所述的装置,其中,所述要素识别模型采用如下方式进行训练:
获取样本集合中的各个样本用户问句以及各个样本用户问句对应的要素分类标签;
利用已训练的第二神经网络模型,预测各个用户问句在各个要素分类上的第三概率得分,其中所述第二神经网络模型的层数为P;
利用待训练的所述要素识别模型,预测各个用户问句在各个要素分类上的第四概率得分,其中,所述要素识别模型的层数为Q,Q<P;
根据所述第四概率得分和所述第三概率得分,确定第三预测损失;
根据所述第四概率得分和各个用户问句的要素分类标签,确定第四预测损失;
将所述第三预测损失与所述第四预测损失进行加权求和,得到第二总损失;
以最小化所述第二总损失为训练目标,对所述要素识别模型进行训练。
21.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-10中任一项的所述的方法。
22.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-10中任一项的所述的方法。
CN202010819216.6A 2020-08-14 2020-08-14 针对用户问句进行智能应答的方法和装置 Active CN111680148B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010819216.6A CN111680148B (zh) 2020-08-14 2020-08-14 针对用户问句进行智能应答的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010819216.6A CN111680148B (zh) 2020-08-14 2020-08-14 针对用户问句进行智能应答的方法和装置

Publications (2)

Publication Number Publication Date
CN111680148A true CN111680148A (zh) 2020-09-18
CN111680148B CN111680148B (zh) 2020-12-01

Family

ID=72438627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010819216.6A Active CN111680148B (zh) 2020-08-14 2020-08-14 针对用户问句进行智能应答的方法和装置

Country Status (1)

Country Link
CN (1) CN111680148B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116737910A (zh) * 2023-08-10 2023-09-12 腾讯科技(深圳)有限公司 智能对话处理方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427466A (zh) * 2019-06-12 2019-11-08 阿里巴巴集团控股有限公司 用于问答匹配的神经网络模型的训练方法和装置
CN110688471A (zh) * 2019-09-30 2020-01-14 支付宝(杭州)信息技术有限公司 训练样本获取方法、装置及设备
CN111309882A (zh) * 2020-02-13 2020-06-19 支付宝(杭州)信息技术有限公司 用于实现智能客服问答的方法和装置
CN111339302A (zh) * 2020-03-06 2020-06-26 支付宝(杭州)信息技术有限公司 训练要素分类模型的方法和装置
CN111400479A (zh) * 2020-04-14 2020-07-10 支付宝(杭州)信息技术有限公司 针对多轮对话的问题识别方法和装置
CN111400480A (zh) * 2020-04-21 2020-07-10 支付宝(杭州)信息技术有限公司 针对多轮对话的用户意图识别方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427466A (zh) * 2019-06-12 2019-11-08 阿里巴巴集团控股有限公司 用于问答匹配的神经网络模型的训练方法和装置
CN110688471A (zh) * 2019-09-30 2020-01-14 支付宝(杭州)信息技术有限公司 训练样本获取方法、装置及设备
CN111309882A (zh) * 2020-02-13 2020-06-19 支付宝(杭州)信息技术有限公司 用于实现智能客服问答的方法和装置
CN111339302A (zh) * 2020-03-06 2020-06-26 支付宝(杭州)信息技术有限公司 训练要素分类模型的方法和装置
CN111400479A (zh) * 2020-04-14 2020-07-10 支付宝(杭州)信息技术有限公司 针对多轮对话的问题识别方法和装置
CN111400480A (zh) * 2020-04-21 2020-07-10 支付宝(杭州)信息技术有限公司 针对多轮对话的用户意图识别方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116737910A (zh) * 2023-08-10 2023-09-12 腾讯科技(深圳)有限公司 智能对话处理方法、装置、设备及存储介质
CN116737910B (zh) * 2023-08-10 2024-03-29 腾讯科技(深圳)有限公司 智能对话处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111680148B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
Masche et al. A review of technologies for conversational systems
US20200152174A1 (en) Method, Apparatus, and System for Conflict Detection and Resolution for Competing Intent Classifiers in Modular Conversation System
CN110020426B (zh) 将用户咨询分配到客服业务组的方法及装置
US20090119584A1 (en) Software Tool for Creating Outlines and Mind Maps that Generates Subtopics Automatically
RU2708941C1 (ru) Способ и устройство распознавания сегментированных предложений для человеко-машинной интеллектуальной вопросно-ответной системы
CN111767366A (zh) 问答资源挖掘方法、装置、计算机设备及存储介质
CN111339302A (zh) 训练要素分类模型的方法和装置
Sherwani et al. Orality-grounded HCID: Understanding the oral user
CN111782787B (zh) 问题生成模型训练方法、问题生成方法
Mathew et al. NLP-based personal learning assistant for school education
EP3614297A1 (en) Hybrid natural language understanding
CN114757176A (zh) 一种获取目标意图识别模型的方法以及意图识别方法
CN112183055A (zh) 结合rpa和ai的信息获取方法、装置、计算机设备及介质
CN112199486A (zh) 一种办公场景的任务型多轮对话方法及系统
CN114490961A (zh) 一种基于多轮对话的客服方法、系统、装置及存储介质
CN111444729A (zh) 信息处理的方法、装置、设备及可读存储介质
CN111680148B (zh) 针对用户问句进行智能应答的方法和装置
CN117573834A (zh) 一种用于面向软件即服务平台的多机器人对话方法及系统
CN110188190B (zh) 对话解析方法、装置、服务器及可读存储介质
CN111931503A (zh) 信息抽取方法及装置、设备、计算机可读存储介质
CN116821290A (zh) 面向多任务对话的大语言模型训练方法和交互方法
CN109002498B (zh) 人机对话方法、装置、设备及存储介质
Kulkarni et al. College chat-bot
CN112818084B (zh) 信息交互方法、相关装置、设备及计算机可读介质
CN112231373B (zh) 知识点数据的处理方法、装置、设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40037331

Country of ref document: HK