CN114138954A - 用户咨询问题推荐方法、系统、计算机设备及存储介质 - Google Patents
用户咨询问题推荐方法、系统、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114138954A CN114138954A CN202111385315.9A CN202111385315A CN114138954A CN 114138954 A CN114138954 A CN 114138954A CN 202111385315 A CN202111385315 A CN 202111385315A CN 114138954 A CN114138954 A CN 114138954A
- Authority
- CN
- China
- Prior art keywords
- text
- user
- prompt
- candidate
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
Abstract
本文提供了一种用户咨询问题推荐方法、系统、计算机设备及存储介质,方法包括:根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息编码得到,所述提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;根据输入序列及第一文本预测模型,预测得到候选问题集;将候选问题集对应的知识点输出给用户。本文能够自动地、合理地、全面地的生成适用于个性化场景的连续提示编码信息,利用连续提示编码信息及用户输入的前缀信息预测用户咨询问题,能够规范个性化用户咨询问题预测任务,实时推荐用户最可能咨询的知识点,高效智能回答用户咨询问题,提高用户咨询意图回复的准确率。
Description
技术领域
本文涉及人工智能自然语言处理领域,尤其涉及一种用户咨询问题推荐方法、系统、计算机设备及存储介质。
背景技术
现有技术中人与机器交互时,主要是人输入咨询信息,由机器根据咨询信息进行语义匹配,进而根据语义确定回复内容并回复。
但因为人输入的咨询信息具有不规范性,且咨询内容较为随意,这将使得机器人无法准确进行语义匹配,进而导致咨询信息无法回复的问题。
现有技术中解决人输入咨询问题存在不规范性及随意性问题的方案主要是直接使用已有文本预测模型对用户输入前缀进行问题预测。该种问题预测方式存在针对性差,无法精确得到用户想要咨询问题的缺陷。
发明内容
本文用于解决现有技术中文本预测模型预测用户咨询问题时存在精度低的问题。
为了解决上述技术问题,本文的第一方面提供一种用户咨询问题推荐方法,包括:
根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,连续提示编码信息由提示编码器对伪提示信息编码得到,提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
根据输入序列及第一文本预测模型,预测得到候选问题集;
将候选问题集对应的知识点输出给用户。
作为本文进一步实施例,根据输入序列及第一文本预测模型,预测得到候选问题集之后还包括:
利用文本评分模型对候选问题集中的候选问题进行评分,得到候选问题集中各候选问题的得分,其中,文本评分模型利用倒序的历史用户咨询问题训练第二文本预测模型得到;
将候选问题集对应的知识点输出给用户进一步为:将候选问题集中得分排名前Y的候选问题对应的知识点输出给用户,其中,Y为正整数。
作为本文进一步实施例,确定文本评分模型的过程包括:
步骤101,拼接连续提示编码信息及历史用户咨询问题,对拼接所得文本进行倒序处理,得到倒序文本;
步骤102,根据倒序文本及第二文本预测模型,确定倒序文本中各字符的条件概率值;
步骤103,根据倒序文本中各字符的条件概率值的乘积值,构建第一损失函数;
步骤104,判断第一损失函数是否满足第一预设条件,若第一损失函数不满足第一预设条件,则调整第二文本预测模型中的参数,重复步骤102至步骤104,直至第一损失函数满足第一预设条件为止;
步骤105,将满足第一预设条件时的第二文本预测模型作为文本评分模型。
作为本文进一步实施例,利用文本评分模型对候选问题集中的候选问题进行评分,得到候选问题集中各候选问题的得分,包括:
对于候选问题集中的每一候选问题,执行如下操作:
拼接连续提示编码信息及该候选问题,对拼接所得文本进行倒序处理,得到倒序文本;
根据倒序文本及文本评分模型,确定倒序文本中各字符的条件概率值;
将倒序文本中各字符的条件概率值的乘积值作为对该候选问题的评分。
作为本文进一步实施例,确定提示编码器的参数的过程包括:
步骤201,根据参数未定的提示编码器输出的连续提示编码信息及历史用户咨询问题,构建训练语料;
步骤202,根据训练语料及第一文本预测模型,确定训练语料中各字符的条件概率值;
步骤203,根据训练语料中各字符的条件概率值的乘积值,构建第二损失函数;
步骤204,判断第二损失函数是否满足第二预设条件,若第二损失函数不满足第二预设条件,则调整提示编码器的参数,重复步骤202至步骤204,直至第二损失函数满足第二预设条件为止;
步骤205,将满足第二预设条件时提示编码器的参数作为提示编码器训练得到的参数。
作为本文进一步实施例,根据输入序列及第一文本预测模型,预测得到候选问题集,包括:
步骤301,将输入序列输入至第一文本预测模型中,预测得到预设字典中各字符更新至输入序列的概率,其中,预设字典至少包括历史用户咨询问题中的字符;
步骤302,从预测得到的概率中筛选出概率排名前X的字符,其中,X为正整数;
步骤303,对于每一筛选出的字符,将该字符添加至所述输入序列最后,得到更新后的输入序列;判断该字符是否为结束符,若判断结果为否,则执行步骤304,若判断结果为是,则执行步骤305;
步骤304,将更新后的输入序列输入至第一文本预测模型中,预测得到预设字典中各字符更新至输入序列的概率,返回执行步骤302至步骤303;
步骤305,根据该字符对应的更新后输入序列,确定一候选问题。
作为本文进一步实施例,还包括:获取用户业务相关信息;
根据连续提示编码信息及用户输入的前缀文本,确定输入序列进一步为:根据连续提示编码信息、用户业务相关信息及用户输入的前缀文本,确定输入序列。
本文的第二方面提供一种用户咨询问题推荐系统,包括:
处理模块,用于根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,连续提示编码信息由提示编码器对伪提示信息编码得到,提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
预测模块,用于根据输入序列及第一文本预测模型,预测得到候选问题集;
输出模块,用于将候选问题集对应的知识点输出给用户。
本文的第三方面提供一种计算机设备,包括存储器、处理器、以及存储在所述存储器上的计算机程序,所述计算机程序被所述处理器运行时,执行根据前述任一实施例所述方法的指令。
本文的第四方面提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被计算机设备的处理器运行时,执行根据前述任一实施例所述方法的指令。
本文提供的用户咨询问题推荐方法、系统、计算机设备及存储介质,通过利用历史用户咨询问题及第一文本预测模型训练提示编码器,提示编码器的输入为伪提示信息,提示编码器的输出为连续提示编码信息,能够自动地、合理地、全面地生成适用于个性化场景的连续提示编码信息。通过根据连续提示编码信息及用户输入的前缀文本,确定输入序列;根据输入序列及第一文本预测模型,预测得到候选问题集;将候选问题集对应的知识点输出给用户,能够规范个性化用户咨询问题预测任务,实时推荐用户最可能咨询的知识点,高效智能回答用户咨询问题,提高用户咨询意图回复的准确率。同时,用户咨询意图回复准确了,本文还可以增加用户粘性、提高互动频次。
为让本文的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本文实施例用户咨询问题推荐方法的第一流程图;
图2示出了本文实施例用户咨询问题推荐方法的第二流程图;
图3示出了本文实施例确定文本评分模型过程的流程图;
图4示出了本文实施例候选问题评分过程的流程图;
图5示出了本文实施例确定提示编码器参数过程的流程图;
图6示出了本文实施例计算候选问题集过程的流程图;
图7示出了本文实施例用户咨询问题推荐方法的第三流程图;
图8示出了本文实施例用户咨询问题推荐系统的结构图;
图9示出了本文实施例计算机设备的结构图。
附图符号说明:
801、处理模块;
802、预测模块;
803、输出模块;
804、评分模块;
902、计算机设备;
904、处理器;
906、存储器;
908、驱动机构;
910、输入/输出模块;
912、输入设备;
914、输出设备;
916、呈现设备;
918、图形用户接口;
920、网络接口;
922、通信链路;
924、通信总线。
具体实施方式
下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。
需要说明的是,本文的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本文的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或装置产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。
需要说明的是,本文的用户咨询问题推荐方法及系统可用于保险领域的问题咨询,也可用于除保险领域之外的任意领域的问题咨询,例如银行、券商、电商等领域的问题咨询,本文的用户咨询问题推荐方法及系统的应用领域不做限定。
本文所涉及的用户相关信息(包括但不限于业务信息、用户画像信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本案一实施例中,提供一种用户咨询问题推荐方法,如图1所示,用户咨询问题推荐方法包括:
步骤100,根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,连续提示编码信息由提示编码器对伪提示信息编码得到,提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
步骤200,根据输入序列及第一文本预测模型,预测得到候选问题集;
步骤300,将候选问题集对应的知识点输出给用户,以引导用户选择可能的知识点。
详细的说,本文所述的用户可以为客户,还可以为运营/管理人员。用户输入的前缀文本为用户在交互文本框内实时输入的部分问题,根据应用场景不同,用户输入的前缀文本也不同,本文对此不做限定。提示编码器用于基于历史用户咨询问题,从中提炼出符合历史咨询问题共性的个性化的连续提示编码信息。伪提示信息可以为随机设定的空参数,本文对伪提示信息具体为何不做限定。
第一文本预测模型可选用现有技术中已有的文本预测模型,例如GPT-2模型,本文对文本预测模型具体结构不做限定。
候选问题集中包括多个候选问题,每一候选问题对应一个或多个知识点(即标准答案),具体实施时,可通过匹配候选问题与知识点关键字的方式确定候选问题对应的知识点。步骤300在预测用户候选问题的基础上,直接将问题对应的知识点输出至提示框中,能够便于用户快速定位想要咨询问题的答案。
本文用户咨询问题推荐方法可编写为智能客服程序、客户端、APP,应用于服务器、云设备、医疗设备、养老辅助设备、康复辅助设备、台式电脑、平板电脑、笔记本电脑、智能手机、数字助理、智能可穿戴设备等,或者以上载体交互形成的组合设备或系统,以及基于以上设备或系统的服务。其中,智能可穿戴设备可以包括智能手环、智能手表、智能眼镜、智能头盔等,还可以为单独的应用程序、内嵌于其他程序中的小程序等,或者也可以为网页形式等,本文对具体实现方式不做限定。
本文通过利用历史用户咨询问题及第一文本预测模型训练得到提示编码器,能够自动地、合理地、全面地生成适用于个性化场景的连续提示编码信息。通过上述步骤100能够规范化用户咨询问题预测任务。通过步骤200及步骤300能够实时判断用户咨询意图并推荐用户最可能咨询的知识点,引导用户咨询内容,确保智能客服回答的高效性、智能性以及准确性。
为了更精确地确定用户真实意图的推荐问题,本文一实施例中,如图2所示,用户咨询问题推荐方法包括:
步骤100,根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息编码得到,所述提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
步骤200,根据输入序列及第一文本预测模型,预测得到候选问题集;
步骤310,利用文本评分模型对候选问题集中的候选问题进行评分,得到候选问题集中各候选问题的得分,其中,文本评分模型利用倒序的历史用户咨询问题训练第二文本预测模型得到;
步骤320,将候选问题集中得分排名前Y的候选问题对应的知识点输出给用户,其中,Y为正整数。
详细的说,步骤100及步骤200的实施过程可参考前述实施例,此处不再详述。步骤310中第二文本预测模型与第一文本预测模型可以相同,也可以不同。步骤320筛选出的候选问题的个数Y少于候选问题集中的候选问题的个数。
本文通过第一文本预测模型能够预测得到对用户输入前缀文本及连续提示编码信息依赖的候选问题,通过文本评分模型能够确定用户输入前缀文本及连续提示编码信息对候选问题的依赖,通过第一文本预测模型与文本评分模型的配合使用,能够得到相互依赖的候选问题,提高候选问题的准确度。
本文一实施例中,如图3所示,确定文本评分模型的过程包括:
步骤101,拼接连续提示编码信息及历史用户咨询问题,对拼接所得文本进行倒序处理,得到倒序文本;
步骤102,根据倒序文本及第二文本预测模型,确定倒序文本中各字符条件的概率值;
步骤103,根据倒序文本中各字符的条件的概率值的乘积值,构建第一损失函数;
步骤104,判断第一损失函数是否满足第一预设条件,若第一损失函数不满足第一预设条件,则调整第二文本预测模型中的参数,重复步骤102至步骤104,直至第一损失函数满足所述第一预设条件为止;若第一损失函数满足第一预设条件,则执行步骤105;
步骤105,将满足第一预设条件时的第二文本预测模型作为文本评分模型。
步骤101中假设拼接连续提示编码信息及历史用户咨询问题得到的拼接文本为:h1,...,hm,e(to),...,e(tn),倒序文本为:e(tn),...,e(to),hm,...,h1。
步骤102实施时,逐一将各倒序文本中的字符依次输入至第二文本预测模型中,第二文本预测模型输出倒序文本中各字符条件概率值,对于倒序文本e(tn),...,e(to),hm,...,h1,先将e(tn)输入至第二文本预测模型中,得到e(tn)的概率,然后将e(tn)、e(tn-1)输入至第二文本预测模型中,得到e(tn-1)在e(tn)条件下的概率,接着将e(tn)、e(tn-1)、e(tn-2)输入至第二文本预测模型中,得到e(tn-2)在e(tn-1)及e(tn)条件下的概率,直至最后字符输入至第二文本预测模型为止,得到h1在e(tn),…,e(to),hm,…,h2条件下的概率。总结而言,将倒序文本e(tn),…,e(to),hm,…,h1前半部分文本序列当作S=x1,…,xm,后面用户咨询问题预测的文本看作T=xm+1,…,xm+n,那用户咨询问题按条件概率生成的概率为
步骤103中,构建第一损失函数的过程可参考现有技术,本文对此不作具体限定。
步骤104实施时,可按预设步长调整第二文本预测模型中的参数值,预设条件可根据实际需求进行设定,例如第一损失函数值最小。
本文一实施例中,如图4所示,上述步骤310利用文本评分模型对候选问题集中的候选问题进行评分,得到候选问题集中各候选问题的得分,包括:
对于候选问题集中的每一候选问题,执行如下操作:
步骤311,拼接连续提示编码信息及该候选问题,对拼接所得文本进行倒序处理,得到倒序文本;
步骤312,根据倒序文本及文本评分模型,确定倒序文本中各字符的条件概率值;
步骤313,将倒序文本中各字符的条件概率值的乘积值作为对该候选问题的评分。
步骤312实施时,将倒序文本中的字符逐一输入至文本评分模型中,得到各字符在已输入字符条件下的条件概率值。
步骤313中得到的乘积值代表候选问题被预测出来的概率。如果根据用户输入前缀信息预测出一问题,同时根据该问题预测出的文本同样可以高概率的反推出用户输入前缀信息,说明预测出的问题是用户真实意图的问题。
本文一实施例中,上述步骤100实施时,需要先对用户输入的前缀文本进行编码处理,拼接连续提示编码信息及用户输入前缀文本编码后的信息得到输入序列。
本文一实施例中,提示编码器由双向长短时记忆网络(Bi-directional LongShort Term,Bi-LSTM)神经网络和多层感知器(Multi-layer Perceptron,MLP)构成,其中,双向长短时记忆网络Bi-LSTM神经网络包括正序文本字向量序列和倒序文本字向量序列的两个长短记忆网络LSTM单元。伪提示信息t1,…,tm(m为伪提示信息个数)输入至提示编码器后,由双向长短时记忆网络Bi-LSTM神经网络输出向量序列ht=[hfw,hbw],其中,hfw表示处理正序文本字向量序列的LSTM网络的输出,hbw表示处理倒序文本字向量序列的LSTM网络的输出,ht表示Bi-LSTM的向量序列输出;Bi-LSTM的向量序列输出输入至多层感知器MLP中,得到连续提示编码信息hi=MLP([hfw,hbw])。
本实施例提供的提示编码器不仅能够减少模型参数的训练,还可解决提示信息不连续的问题。具体实施时,还可选择其它网络结构的提示编码器,本文对提示编码器的具体结构不做限定。本文一实施例中,如图5所示,确定提示编码器参数的过程包括:
步骤201,根据参数未定的提示编码器输出的连续提示编码信息及历史用户咨询问题,构建训练语料;
步骤202,根据训练语料及第一文本预测模型,确定训练语料中各字符的条件概率值;
步骤203,根据训练语料中各字符的条件概率值的乘积值,构建第二损失函数;
步骤204,判断第二损失函数是否满足第二预设条件,若第二损失函数不满足第二预设条件,则调整提示编码器的参数,重复步骤202至步骤204,直至第二损失函数满足第二预设条件为止;
步骤205,将满足第二预设条件时提示编码器的参数作为提示编码器训练得到的参数。
详细的说,步骤201输出的连续提示编码信息并非最佳的信息。步骤202实施时,按照训练语料从前到后的顺序,每次增加一个字符输入至第一文本预测模型中,第一文本预测模型输出训练语料中各字符的条件概率值。例如训练语料为{A,B,C,D},则第一次将{A}输入至第一文本预测模型中,得到A的概率;第二次将{A,B}输入至第一文本预测模型中,得到B|A的概率(在A的条件下B的概率);第三次将{A,B,C}输入至第一文本预测模型中,得到C|A,B的概率(在A、B的条件下C的概率);第四次将{A,B,C,D}输入至第一文本预测模型中,得到{D|A,B,C}的概率(在A、B、C的条件下D的概率)。
步骤203实施时,可参考现有技术构建第二损失函数,本文对构建出的第二损失函数具体公式不做限定,第二预设条件可根据实际情况进行设定,例如为第二损失函数值最小,本文对此不做限定。
本实施例能够在不改变第一文本预测模型的结构的基础上,借助第一文本预测模型来预测得到提示编码器,通过提示编码器来确定历史用户问题相关的连续提示编码信息,使用连续提示编码信息能够协助第一文本预测模型能够准确地完成用户咨询问题生成的任务。
本文一实施例中,第一文本预测模型由嵌入层、解码层及输出层构成。
嵌入层的输入为用户输入的前缀文字,通过计算用户输入前缀文本中的每个字(token)的字嵌入(token embedding)及位置嵌入(position embedding)来对用户输入前缀文本进行编码,得到用户输入前缀文本的嵌入层编码信息,例如客户输入的前缀文本X=t1,…,tN经过第一文本预训练模型的嵌入层得到嵌入编码信息e(t0),…,e(tn)。
解码器是第一文本预测模型的主体结构,具有强大的特征抽取能力来学习词语的深度单向编码表示。解码器的输入为连续提示编码信息及用户输入前缀文本的嵌入编码信息构成的序列,例如连续提示编码信息h1,…,hm,嵌入编码信息为e(t0),…,e(tn),则输入至解码层的序列为h1,…,hm,e(to),…,e(tn)(m+n是表示文本序列长度)。
输出层连接解码层,解码层及嵌入层的输出个数与预设字典中包含字符个数相等。输出层用于输出预设字典中各字符在输入序列条件下的概率,其中,预设字典中至少包括历史用户咨询问题的字符(包括标点符号),当然,除了包括历史用户咨询问题的字符之外,还可以包括应用场景的技术术语,以保险领域为例,例如还包括各保险名称、保险相关规定等。
本文一实施例中,如图6所示,上述步骤200根据输入序列及第一文本预测模型,预测得到候选问题集,包括:
步骤301,将输入序列输入至第一文本预测模型中,预测得到预设字典中各字符更新至输入序列的概率,即预设字典中各字符作为输入序列的下一字符的概率;
步骤302,从预测得到的概率中筛选出概率排名前X的字符,其中,X为正整数;
步骤303,对于每一筛选出的字符,将其添加至输入序列最后,得到更新后的输入序列;判断该字符是否为结束符,若判断结果为否,则执行步骤304,若判断结果为是,则执行步骤305,其中,结束符为表示一句话结束的标点符号,例如为逗号、句号、分号、分号、顿号等;
步骤304,将更新后的输入序列输入至第一文本预测模型中,预测得到预设字典中各字符更新至输入序列的概率,返回执行步骤302至步骤304;
步骤305,根据该字符对应的更新后输入序列,确定一候选问题。集合所有候选问题,得到候选问题集合。
步骤301实施时,将输入序列输入至第一文本预测模型中实质是将输入序列输入至第一文本预测模型的解码层。
步骤302输出字符指的是字符的编码值,输出字符个数X可在算法设计时,由设计人员设定,优选的,X的取值范围为3~6个。
步骤303根据步骤302输出的字符,会得到X个更新后输入序列。
步骤304返回至步骤302实施后,每一更新后输入序列又会得到X个字符,这样会得到X×X个更新的输入序列,为了提高计算效率,会从更新后的输入序列中选出输入序列概率最大的前X个输入序列重复执行上述步骤302及其之后的步骤。输入序列概率为其后新增字符概率的乘积。例如第一次预测得到字符A,条件概率为A1,在字符A的基础上,预测得到字符B,条件概率为B1,则包括字符A及B的输入序列概率为A1×B1。
本文一实施例中,为了使得提示编码器适应各种业务场景,如图7所示,用户咨询问题推荐方法包括:
步骤701,接收用户输入的前缀本文,获取用户业务相关信息,其中,用户业务相关信息包括渠道信息、用户画像(特征信息),以保险业务咨询为例,渠道信息例如官网、微保、轻松筹、水滴筹等互联网保险渠道,用户画像例如客户历史购买保险、是否产生过理赔等;
步骤702,根据连续提示编码信息、用户业务相关信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息及个性化信息编码得到,所述提示编码器利用历史用户咨询问题、用户业务相关信息及第一文本预测模型训练得到;
步骤703,根据输入序列及第一文本预测模型,预测得到候选问题集;
步骤704,将候选问题集对应的知识点输出给用户。
本实施例运用历史用户咨询问题、用户业务相关信息及第一文本预测模型去训练提示编码器,能够学习得到用户咨询问题上下文规律,进而进行各业务个性化推荐。
基于同一发明构思,本文还提供一种用户咨询问题推荐系统,如下面的实施例所述。由于用户咨询问题推荐系统解决问题的原理与用户咨询问题推荐方法相似,因此用户咨询问题推荐系统的实施可以参见用户咨询问题推荐方法,重复之处不再赘述。
具体的,如图8所示,用户咨询问题推荐系统包括:
处理模块801,用于根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息编码得到,所述提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
预测模块802,用于根据所述输入序列及所述第一文本预测模型,预测得到候选问题集;
输出模块803,用于将候选问题集对应的知识点输出给用户。
为了更进一步提高用户咨询问题推荐的准确性,用户咨询问题推荐系统还包括:
评分模块804,用于利用文本评分模型对候选问题集中的候选问题进行评分,得到候选问题集中各候选问题的得分,其中,文本评分模型利用倒序的历史用户咨询问题训练第二文本预测模型得到。
输出模块803将候选问题集中得分前n的候选问题对应的知识点输出给用户。
提示编码器、文本评分模型的建模过程可参考前述实施例,此处不再详述。各步骤的具体实现过程也可参考前述实施例,此处也不再详述。
为了更清楚说明本文技术方案,下面以第一文本预测模型及第二文本预测模型为GPT-2模型为例进行详细说明,用户咨询问题推荐方法实施过程分两个阶段:准备阶段和应用阶段。
一、准备阶段
(1)构建伪提示文本t1,…,tm,使用双向长短时记忆网络Bi-LSTM神经网络和多层感知器MLP作为提示编码器。伪提示文本t1,…,tm输入至提示编码器可以生成连续提示编码信息h1,…,hm。
(2)利用连续提示编码信息及用户输入的前缀信息,通过GPT-2模型训练提示编码器:
将用户输入的前缀信息输入至GPT-2模型的嵌入层,得到用户输入前缀信息的嵌入编码信息e(t0),…,e(tn);
将连续提示编码信息、业务相关信息及嵌入编码信息作为训练语料h1,…,hm,e(to),…,e(tn)(m+n是表示文本序列长度),根据训练语料及GPT-2模型确定损失函数,利用损失函数训练提示编码器,即利用损失函数优化连续提示编码信息,当损失函数满足预设条件时,得到最佳的提示编码器,将伪提示文本输入至训练好的提示编码器,得到最佳的连续提示编码信息。
(3)将步骤(2)得到的最佳连续提示编码信息、业务相关信息及用户输入的前缀文本的嵌入式编码信息进行倒序处理,得到倒序文本;
利用倒序文本训练GPT-2模型得到文本预测模型:在训练过程中,GPT-2的参数随着倒序文本不断输入GPT-2模型,不断学习最后完成模型训练。
二、应用阶段
(1)部署训练完成的提示编码器、GPT-2模型及文本评分模型。
(2)用户通过智能客服咨询问题时,系统会自动获取用户输入的前缀信息、业务相关信息及连续提示编码信息,拼接提示编码器生成的连续提示编码信息、业务相关信息及用户输入的前缀信息编码后的信息,根据拼接所得信息调用GPT-2模型,预测得到top-n候选问题集。
(3)拼接连续提示编码信息、业务相关信息及预测得到top-n候选问题集中各候选问题编码后的信息,利用文本评分模型,计算得到各候选问题的评分,从而筛选出top-m个候选问题。
(4)根据top-m个候选问题,通过弹性检索在知识库的知识点中检索出对应的问题知识点并输出给用户。
用户看见系统推荐的问题知识点,会影响其潜意识,进而引导用户点击相关知识点,当用户点击了知识点,系统会实时准确的返回其知识点的答案。这样,不仅问答系统能提供百分百的问答准确率,同时用户也可以通过智能化服务得到满意的咨询服务。
本文一实施例中,还提供一种计算机设备,如图9所示,计算机设备902可以包括一个或多个处理器904,诸如一个或多个中央处理单元(CPU),每个处理单元可以实现一个或多个硬件线程。计算机设备902还可以包括任何存储器906,其用于存储前述任一实施例所述用户咨询问题推荐方法的程序代码。非限制性的,比如,存储器906可以包括以下任一项或多种组合:任何类型的RAM,任何类型的ROM,闪存设备,硬盘,光盘等。更一般地,任何存储器都可以使用任何技术来存储信息。进一步地,任何存储器可以提供信息的易失性或非易失性保留。进一步地,任何存储器可以表示计算机设备902的固定或可移除部件。在一种情况下,当处理器904执行被存储在任何存储器或存储器的组合中的相关联的指令时,计算机设备902可以执行相关联指令的任一操作。计算机设备902还包括用于与任何存储器交互的一个或多个驱动机构908,诸如硬盘驱动机构、光盘驱动机构等。
计算机设备902还可以包括输入/输出模块910(I/O),其用于接收各种输入(经由输入设备912)和用于提供各种输出(经由输出设备914))。一个具体输出机构可以包括呈现设备916和相关联的图形用户接口918(GUI)。在其他实施例中,还可以不包括输入/输出模块910(I/O)、输入设备912以及输出设备914,仅作为网络中的一台计算机设备。计算机设备902还可以包括一个或多个网络接口920,其用于经由一个或多个通信链路922与其他设备交换数据。一个或多个通信总线924将上文所描述的部件耦合在一起。
通信链路922可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路922可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务器等的任何组合。
对应于图1-图7中的方法,本文实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法的步骤。
本文实施例还提供一种计算机可读指令,其中当处理器执行所述指令时,其中的程序使得处理器执行如图1至图7所示的方法。
应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。
还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本文所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。
另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。
Claims (10)
1.一种用户咨询问题推荐方法,其特征在于,包括:
根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息编码得到,所述提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
根据所述输入序列及所述第一文本预测模型,预测得到候选问题集;
将所述候选问题集对应的知识点输出给用户。
2.如权利要求1所述的方法,其特征在于,根据所述输入序列及所述第一文本预测模型,预测得到候选问题集之后还包括:
利用文本评分模型对所述候选问题集中的候选问题进行评分,得到所述候选问题集中各候选问题的得分,其中,所述文本评分模型利用倒序的历史用户咨询问题训练第二文本预测模型得到;
将所述候选问题集对应的知识点输出给用户进一步为:将所述候选问题集中得分排名前Y的候选问题对应的知识点输出给用户,其中,Y为正整数。
3.如权利要求2所述的方法,其特征在于,确定所述文本评分模型的过程包括:
步骤101,拼接所述连续提示编码信息及历史用户咨询问题,对拼接所得文本进行倒序处理,得到倒序文本;
步骤102,根据所述倒序文本及所述第二文本预测模型,确定所述倒序文本中各字符的条件概率值;
步骤103,根据所述倒序文本中各字符的条件概率值的乘积值,构建第一损失函数;
步骤104,判断所述第一损失函数是否满足第一预设条件,若所述第一损失函数不满足所述第一预设条件,则调整所述第二文本预测模型中的参数,重复所述步骤102至步骤104,直至所述第一损失函数满足所述第一预设条件为止;
步骤105,将满足所述第一预设条件时的第二文本预测模型作为文本评分模型。
4.如权利要求2所述的方法,其特征在于,利用所述文本评分模型对所述候选问题集中的候选问题进行评分,得到所述候选问题集中各候选问题的得分,包括:
对于所述候选问题集中的每一候选问题,执行如下操作:
拼接所述连续提示编码信息及该候选问题,对拼接所得文本进行倒序处理,得到倒序文本;
根据所述倒序文本及所述文本评分模型,确定所述倒序文本中各字符的条件概率值;
将所述倒序文本中各字符的条件概率值的乘积值作为对该候选问题的评分。
5.如权利要求1所述的方法,其特征在于,确定所述提示编码器的参数的过程包括:
步骤201,根据参数未定的提示编码器输出的连续提示编码信息及历史用户咨询问题,构建训练语料;
步骤202,根据所述训练语料及所述第一文本预测模型,确定所述训练语料中各字符的条件概率值;
步骤203,根据所述训练语料中各字符的条件概率值的乘积值,构建第二损失函数;
步骤204,判断所述第二损失函数是否满足第二预设条件,若所述第二损失函数不满足所述第二预设条件,则调整提示编码器的参数,重复步骤202至步骤204,直至所述第二损失函数满足所述第二预设条件为止;
步骤205,将满足所述第二预设条件时提示编码器的参数作为所述提示编码器训练得到的参数。
6.如权利要求1所述的方法,其特征在于,根据所述输入序列及所述第一文本预测模型,预测得到候选问题集,包括:
步骤301,将所述输入序列输入至所述第一文本预测模型中,预测得到预设字典中各字符更新至所述输入序列的概率,其中,所述预设字典至少包括历史用户咨询问题中的字符;
步骤302,从预测得到的概率中筛选出概率排名前X的字符,其中,X为正整数;
步骤303,对于每一筛选出的字符,将该字符添加至所述输入序列最后,得到更新后的输入序列;判断该字符是否为结束符,若判断结果为否,则执行步骤304,若判断结果为是,则执行步骤305;
步骤304,将更新后的输入序列输入至所述第一文本预测模型中,预测得到预设字典中各字符更新至所述输入序列的概率,返回执行所述步骤302至步骤303;
步骤305,根据该字符对应的更新后输入序列,确定一候选问题。
7.如权利要求1所述的方法,其特征在于,还包括:获取用户业务相关信息;
所述提示编码器利用历史用户咨询问题、用户业务相关信息及第一文本预测模型训练得到;
根据连续提示编码信息及用户输入的前缀文本,确定输入序列进一步为:根据连续提示编码信息、用户业务相关信息及用户输入的前缀文本,确定输入序列。
8.一种用户咨询问题推荐系统,其特征在于,包括:
处理模块,用于根据连续提示编码信息及用户输入的前缀文本,确定输入序列,其中,所述连续提示编码信息由提示编码器对伪提示信息编码得到,所述提示编码器利用历史用户咨询问题及第一文本预测模型训练得到;
预测模块,用于根据所述输入序列及所述第一文本预测模型,预测得到候选问题集;
输出模块,用于将所述候选问题集对应的知识点输出给用户。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上的计算机程序,其特征在于,所述计算机程序被所述处理器运行时,执行根据权利要求1-7任意一项所述方法的指令。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被计算机设备的处理器运行时,执行根据权利要求1-7任意一项所述方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111385315.9A CN114138954A (zh) | 2021-11-22 | 2021-11-22 | 用户咨询问题推荐方法、系统、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111385315.9A CN114138954A (zh) | 2021-11-22 | 2021-11-22 | 用户咨询问题推荐方法、系统、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114138954A true CN114138954A (zh) | 2022-03-04 |
Family
ID=80390630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111385315.9A Pending CN114138954A (zh) | 2021-11-22 | 2021-11-22 | 用户咨询问题推荐方法、系统、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114138954A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188632A (zh) * | 2023-04-24 | 2023-05-30 | 之江实验室 | 一种图像的生成方法、装置、存储介质及电子设备 |
-
2021
- 2021-11-22 CN CN202111385315.9A patent/CN114138954A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188632A (zh) * | 2023-04-24 | 2023-05-30 | 之江实验室 | 一种图像的生成方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11334635B2 (en) | Domain specific natural language understanding of customer intent in self-help | |
US20210200951A1 (en) | Method and apparatus for outputting information | |
CN108829822B (zh) | 媒体内容的推荐方法和装置、存储介质、电子装置 | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
EP3717984B1 (en) | Method and apparatus for providing personalized self-help experience | |
CN110674279A (zh) | 基于人工智能的问答处理方法、装置、设备及存储介质 | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
CN111695338A (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
CN111767394A (zh) | 一种基于人工智能专家系统的摘要提取方法及装置 | |
CN111767714B (zh) | 一种文本通顺度确定方法、装置、设备及介质 | |
CN111625715A (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN111966811A (zh) | 意图识别和槽填充方法、装置、可读存储介质及终端设备 | |
CN114138954A (zh) | 用户咨询问题推荐方法、系统、计算机设备及存储介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN117520503A (zh) | 基于llm模型的金融客服对话生成方法、装置、设备及介质 | |
CN116680386A (zh) | 基于多轮对话的答案预测方法和装置、设备、存储介质 | |
CN116702736A (zh) | 保险话术生成方法、装置、电子设备及存储介质 | |
Wang et al. | FastHybrid: A hybrid model for efficient answer selection | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
Zhang et al. | Big data-assisted urban governance: A comprehensive system for business documents classification of the government hotline | |
CN112597289B (zh) | 问询信息分类方法、模型训练方法、装置和电子设备 | |
CN112966085A (zh) | 人机会话智能控制方法、装置、电子设备及存储介质 | |
CN117131263A (zh) | 产品推荐方法、产品推荐装置、电子设备及存储介质 | |
CN117033565A (zh) | 人机对话的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |