CN111159367A - 一种信息处理方法及相关设备 - Google Patents
一种信息处理方法及相关设备 Download PDFInfo
- Publication number
- CN111159367A CN111159367A CN201911264730.1A CN201911264730A CN111159367A CN 111159367 A CN111159367 A CN 111159367A CN 201911264730 A CN201911264730 A CN 201911264730A CN 111159367 A CN111159367 A CN 111159367A
- Authority
- CN
- China
- Prior art keywords
- text
- answer
- texts
- candidate answer
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例适用于语音语义领域中的自然语言处理,公开了一种信息处理方法及相关设备,所述方法包括:从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;确定各个所述候选回答文本对应的注意力特征向量;确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到多个回答文本类别;将所述文本数量最大的回答文本类别确定为目标回答文本类别。通过本发明可以提高确定业务问题的目标回答文本类别下的候选回答文本的效率和准确度。
Description
技术领域
本申请涉及信息处理技术领域,尤其涉及一种信息处理方法及相关设备。
背景技术
随着人工智能的发展,生活中越来越多的场景通过人工智能的方式代替传统的人工劳作。以智能客服为例,当客户有疑问时,客户可以向智能客服提出疑问问题,智能客服通过检索预设的问题数据库选取疑问问题对应的固定回答进行答复。目前的智能客服通常在解答信息检索类问题方面相对人工较为有优势,例如,某商品的价格、某部门的联系方式等,与人工的记忆不准确、不能同时处理多个客户的疑问相比,智能客服能定位疑问问题对应的回答进行答复的效率和准确度都更高。
但是在另外一些场景中,人们期望通过智能客服去开发客户、促进交易、维护客户的场景中,需要智能客服会“察言观色”,提高与客户的对话艺术性,进而做出更为符合客户需求的答复。这时,就需要为智能客服的检索数据库中预设更能使客户满意的回复,现有技术中常用的做法是通过人工的方式按照业务员的主观意愿从人机交互数据库中,检索相应人机对话场景下业务员认为客户较为满意的回复,但是这种通过人工检索挖掘疑问问题的优选回复,来丰富智能客服的检索数据库的方式,效率较慢,且检索回复的标准容易受业务员个人主观意愿的影响,准确率较低。
发明内容
本申请提供一种信息处理方法及相关设备,通过本发明可以提高确定业务问题的目标回答文本类别下的候选回答文本的效率和准确度。
本发明实施例第一方面提供了一种信息处理方法,包括:
从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;
通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量;
根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;
根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本;
确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
结合本发明实施例第一方面,在第一种可能的实现方式中,所述样本回答文本携带用户收到所述样本回答文本作为针对所述业务问题的回答文本后返回的用户评价级别;
所述从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本包括:
将所述业务问题对应样本回答文本中,所述用户评价级别高于预设级别阈值的样本回答文本,确定为所述候选回答文本。
结合本发明实施例第一方面,在第二种可能的实现方式中,所述从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本包括:
获取各个所述样本回答文本对应的用户回复文本,所述用户回复文本为用户针对接收到的所述样本回答文本的回复文本;
将各个样本回答文本对应的用户回复文本输入预设的情绪识别模型,得到各个所述用户回复文本的用户情绪状态,所述用户情绪状态为正向情绪状态或负向情绪状态中的一种;
将所述用户情绪状态为正向情绪状态的用户回复文本对应的样本回答文本,确定为所述候选回答文本。
结合本发明实施例第一方面,在第三种可能的实现方式中,所述方法还包括:
从预设的问答文本数据库获取提问用户与回答用户之间的多个问答文本,所述问答文本包含提问文本和回答文本;
提取各个所述提问文本的提问文本特征,并根据各个所述提问文本的提问文本特征,从所述多个问答文本中筛选出针对所述业务问题的多个第一问答文本;
将所述第一问答文本包含的回答文本确定为所述样本回答文本。
结合本发明实施例第一方面,在第四种可能的实现方式中,第一候选回答文本中包含多个文本文字,所述第一候选回答文本为任一所述候选回答文本;
所述通过注意力机制提取各个所述候选回答文本的回答文本特征,得到所述各个候选回答文本对应的注意力特征向量包括:
对第一候选回答文本中的各个文本文字进行编码,得到各个所述文本文字的文字编码向量;
根据各个所述文本文字的文字编码向量,通过注意力机制确定所述第一候选回答文本中各个文本文字的文字特征向量;
将所述第一候选回答文本的各个文本文字的文字特征向量的平均值,确定为所述第一候选回答文本的注意力特征向量。
结合本发明实施例第一方面的第四种可能的实现方式,在第五种可能的实现方式中,所述对第一候选回答文本中的各个文本文字进行编码,得到各个所述文本文字的文字编码向量包括:
对所述第一候选回答文本中的各个文本文字进行语义编码和位置编码,得到所述第一候选回答文本中各个文本文字的原始语义向量和原始位置向量;
分别将所述第一候选回答文本中各个文本文字的原始语义向量和原始位置向量融合,得到各个文本文字的文字编码向量。
结合本发明实施例第一方面的第四种可能的实现方式,在第六种可能的实现方式中,所述根据各个所述文本文字的文字编码向量,通过注意力机制确定所述第一候选回答文本中各个文本文字的文字特征向量包括:
根据所述各个文本文字的文字编码向量与预设的查询因子标准化向量,确定所述各个文本文字的查询因子向量;
根据所述各个文本文字的文字编码向量与预设的键因子标准化向量,确定所述各个文本文字的键因子向量;
根据所述各个文本文字的文字编码向量与预设的值因子标准化向量,确定所述各个文本文字的值因子向量;
分别确定所述各个文本文字的查询因子向量与第一文本文字的键因子向量之间的相关性,得到所述各个文本文字关于所述第一文本文字的相关性权重,所述第一文本文字为所述第一候选回答文本中的任意一个文本文字;
将所述第一候选回答文本中各个文本文字的值因子向量,按照各自关于所述第一文本文字的相关性权重加权后求和,得到所述第一文本文字的文字特征向量。
结合本发明实施例第一方面的第一种到第六种的任意一种可能的实现方式,在第七种可能的实现方式中,所述方法还包括:
确定所述目标回答文本类别下的候选回答文本在所述向量空间的聚类中心位置;
分别根据所述目标回答文本类别下的各个候选回答文本的注意力特征向量,确定所述目标回答文本类别下的候选回答文本与所述聚类中心位置之间的聚类中心距离;
根据所述聚类中心距离,确定所述目标回答文本类别下各个候选回答文本的回复频率;
在接收用户针对所述业务问题的提问的情况下,根据所述目标回答文本类别下各个候选回答文本的回复频率,从所述目标回答文本类别下各个候选回答文本中确定返回给所述用户的回答文本。
本发明实施例第二方面提供了一种信息处理装置,包括:
候选文本确定模块,用于从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;
特征提取模块,用于通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量;
空间距离确定模块,用于根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;
聚类模块,用于根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本;
目标类别确定模块,用于确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
本发明实施例第三方面提供了一种信息处理装置,包括处理器和存储器;
所述处理器与存储器相连,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行本发明实施例中上述一方面中的方法。
本发明实施例第四方面提供了一种计算机存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被计算机执行时使所述计算机执行上述第一方面和第一方面各个可能的实现方式。
本发明实施例中从对业务问题对应的样本回答文本中确定出多个满足预设用户满意程度条件的候选回答文本,然后通过注意力机制提取各个候选回答文本的回答文本特征,得到各个候选回答文本对应的注意力特征向量,根据各个候选回答文本对应的注意力特征向量,确定在注意力特征向量对应的向量空间中各个候选回答文本之间的空间距离,然后根据所述候选回答文本之间的空间距离,对候选回答文本进行聚类,得到针对业务问题的多个回答文本类别,进而确定各个回答文本类别下的候选回答文本的文本数量,并将文本数量最大的回答文本类别确定为目标回答类别。本发明实施例中通过候选用户文本的确定,将用户满意程度较低的样本回答文本筛除,进而对用户满意程度较高的候选回答文本进行聚类,识别出目标回答文本类别下的大多数用户都满意程度较高的一类候选回答文本,提高了针对业务问题的目标回答文本类别下的候选回答文本的确定效率和确定准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种BERT的网络架构示意图;
图2为本发明实施例提供的一种信息处理方法的流程示意图;
图3为本发明实施例提供的一种CBOW的训练网络的示意图;
图4为本发明实施例提供的一种空间距离矩阵的示意图;
图5为本发明实施例提供的又一种信息处理方法的流程示意图;
图6为本发明实施例提供的一种文字特征向量的确定方式示例图;
图7为本发明实施例提供的一种信息处理装置的结构示意图;
图8为本发明实施例提供的另一种信息处理装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的信息处理方法基于BERT(Bidirectional EncoderRepresentation from Transformers,转换器的双向编码器表示)机制,首先介绍BERT的相关技术。BERT的本质上是通过在海量的语料的基础上进行自监督学习,学习之后可以作为特征提取器为文本提供一个好的特征表示,然后在特定的NLP(Natural LanguageProcessing,自然语言处理)任务中,可以在BERT后添加一个NLP任务对应的输出层,然后直接使用BERT的特征表示作为该输出层的输入词嵌入特征,所以BERT提供的是一个供其它任务迁移学习的基础模型,该模型可以根据任务微调或者固定之后作为特征提取器。本发明实施例中可以在BERT后添加一个聚类网络,实现对候选回答文本的聚类。参见图1,图1为本发明实施例提供的一种BERT的网络架构示意图,如图所示,为BERT作为特征提取器的网络架构示意图,BERT网络可以包括文本编码层、注意力层、第一归一化层、全连接层和第二归一化层。在后续对本发明实施提供的信息处理方法中,将结合BERT网络包含的各个部分进行介绍。
参见图2,图2为本发明实施例提供的一种信息处理方法的流程示意图,如图所示,所述方法可以包括:
S101,从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本。
这里,业务问题可以是售货类、保险类等任一业务类问题中的一个,业务问题对应的样本回答文本可以是在步骤S101之前,提问用户针对这一业务问题提问之后,回答用户针对这一业务问题回复提问用户的文本,也可以是业务人员针对这一业务问题设置的多个样本回答文本。
若所述样本回答文本是回答用户针对业务问题回复提问用户的文本,或是业务人员针对业务问题设置的多个样本回答文本,则样本回答文本可以携带用户在接收到样本回答文本作为针对业务问题的回答文本的情况下返回的用户评价级别,例如,用户在接收到样本回答文本之后,在接收之后通过回复1、2、3、4或5中的一个数字表示对样本回答文本的星级评价,这里的星级评价为用户评价级别;又如,业务人员将针对业务问题的多个样本回答文本发布,用户根据自己针对发布的多个样本回答文本的满意度进行打分,这里的打分为用户评价级别,进而可以将用户评价级别高于预设级别阈值的样本回答,确定为候选回答文本,例如,可以将星级评价为3以上的样本回答文本确定为候选回答文本,或者将用户的打分高于85分的样本回答文本确定为候选回答文本。
若所述样本回答文本是回答用户针对业务问题回复提问用户的文本,用户在接收到样本回答文本之后,可以针对样本回答文本进行回复,即返回回复文本,例如,在商品推荐场景中,业务问题为“60kg、160cm的尺码推荐”,样本回答文本为“L”,则用户接收到该样本回答文本之后可以回复“好的,那就买L的”的回复文本,也可以回复“不行,L的有点大”的回复文本,进而从样本中确定候选回答文本的方式可以为:获取各个所述样本回答文本对应的用户回复文本;将各个样本回答文本对应的用户回复文本输入预设的情绪识别模型,得到各个所述用户回复文本的用户情绪状态,所述用户情绪状态为正向情绪状态或负向情绪状态中的一种;将所述用户情绪状态为正向情绪状态的用户回复文本对应的样本回答文本,确定为所述候选回答文本。
其中,一种实现方式中,情绪识别模型可以是基于关键字比对的模型,例如,在购物推荐的场景中,若用户回复文本中包含“我很喜欢”、“我想要”、“不错”等关键词的情况下,确定用户回复文本对应的用户情绪状态为正向情绪状态,若用户回复文本中包含“我不喜欢”、“不适合我”、“我看看别的”等关键词的情况下,确定用户回复文本对应的用户情绪状态为负向情绪状态。
另一种实现方式中,情绪识别模型可以是基于神经网络建立的模型,例如基于CNN(卷积神经网络)、BERT(转换器的双向编码器表示)等网络建立的模型,通过CNN、BERT等网络提取用户回复文本的深层次抽象特征,进而根据上述特征,通过softmax网络对用户回复文本的用户情绪状态进行分类。
S102,通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量。
这里,各个候选回答文本均包含多个文本文字,针对候选回答文本中的任意一个第一候选回答文本,对第一候选回答文本中的各个文本文字进行编码,得到各个文本文字的文字编码向量,根据各个文本文字的文字编码向量,通过注意力机制确定第一候选回答文本中各个文本文字的文字特征向量,将第一候选回答文本的各个文本文字的文字特征向量的平均值,确定为第一候选回答文本的注意力特征向量。
通过上述步骤,可以将各个候选回答文本的注意力特征向量确定出来,其中,上述步骤中,对各个文本文字进行编码的具体方式可以为:分别对第一候选回答文本中各个文本文字进行语义编码和位置编码,得到各个文本文字的原始语义向量和原始位置向量,分别将第一候选回答文本中每个文本文字对应的原始语义向量和原始位置向量融合,得到各个文本文字的文字编码向量。
其中,对文本文字进行语义编码的方式可以包含基于频率的语义嵌入方式和基于预测的语义嵌入方式,其中,以基于预测的语义嵌入方式中的CBOW(Continues Bag OfWords,连续词袋)模型,对文本文字的语义编码进行介绍,参阅图3,图3为本发明实施例提供的一种CBOW的训练网络的示意图,该训练网络包含输入层、隐藏层和输出层。
其中,通过CBOW可以实现通过某一个文本文字的上下文,对该文本文字进行预测,图3中输入层中神经元的数量为i个,i为对预测对象文字进行预测时,输入的上下文的参考文字的数量,例如,针对“为您推荐套餐二”这句话中,若预测对象文字为“推”,可以预设用于选取参考文字的窗口大小为4,则输入层的神经元可以设置为4个,针对“推”的选取参考文字包含4个,分别为“为”、“您”、“荐”和“套”。确定预测对象上下文的参考文字之后,对各个参考文字进行独热编码,得到X1、X2、X3、X4,独热编码的位数为V位,那么对各个参考文字进行独热编码后,X1、X2、X3、X4的大小为1×V;输入层接收X1、X2、X3、X4,将X1、X2、X3、X4分别与共享的编码初始权重矩阵相乘,得到隐藏层的第一输入向量,其中可以将共享的编码初始权重矩阵的维度设置为V×N(这里N也就是通过训练好的CBOW对文本文字进行编码,得到原始语义向量的维度),那么隐藏层的第一输入向量的大小为1×N。
隐藏层将各个输入层的神经元传输的输入向量相加后求平均值,并与预设的输出初始权重矩阵相乘,得到输出层的第二输入向量,其中,可以将输出初始权重矩阵的维度设置为N×V,那么输出层的第二输入向量的大小为1×V。
输出层将隐藏层传输的第二输入向量通过Softmax函数归一化处理,得到第二输入向量中各个位数取1的概率,确定概率最大的位数在独热编码中对应的目标文字。例如,针对“适”、“合”、“红”和“色”四个字的独热编码分别为:[1,0,0,0]、[0,1,0,0]、[0,0,1,0]和[0,0,0,1],若经过Softmax函数归一化处理后,得到第二输入向量中各个位数取1的概率分别为0.5、0.1、0.3和0.1,则将“喜”确定为目标文字。然后根据目标文字的独热编码以及预测对象文字的独热编码调节编码初始权重矩阵和解码初始权重矩阵,使得目标文字的独热编码和预测对象文字的独热编码之间的误差降低。
通过多次上述过程的调节,可以得到训练好的语义编码权重矩阵和输出权重矩阵,也就是得到了训练好的CBOW,进而在通过训练好的CBOW对文本文字进行编码时,先对文本文字进行独热编码后,将文本文字的独热编码与调节好的语义编码权重矩阵相乘,得到文本文字的原始语义向量。
其中,针对文本文字进行位置编码的方式,可以将文本文字在候选回答文本中不同的位置索引映射成各自对应的预设维度的向量表示,进而可以得到各个文本文字的原始位置向量。一种可选的方式中,原始位置向量的预设维度设置可以为与原始语义向量相同的维度,具体的,可以通过以下公式得到对每个文本文字的原始位置向量:
其中,dpos是原始位置向量的预设维度,i是原始位置向量的维度索引因子,i是正整数,通过i取不同的整数,得到不同原始位置向量中不同维度的维度索引,p是文本文字在候选回答文本中的位置索引,PE2i(p)表示原始位置向量中偶数的维度索引对应的值,PE2i+1(p)表示原始位置向量中奇数的维度索引对应的值。例如,若原始位置向量的预设维度为3,即dpos=3,候选回答文本为“适合红色”,则文本文字“适”对应的原始位置向量确定方式为:令p=1,分别求得当i=0时,PE1(p=1)=cos1≈0.9998,当i=1时,PE2(p=1)=sin(1/100002/3)≈0.9696,PE3(p=1)=cos(1/100002/3)≈-0.2446,得到文本文字对应的原始位置向量为[0.998,0.9696,-0.2446],进而可以分别令p=2,p=3,p=4得到文本文字“合”、“红”、“色”各自的原始位置向量。
将各个文本文字的原始语义向量和原始位置向量确定之后,可以将每个文本文字各自的原始语义向量和原始位置向量进行前后拼接,得到的新的向量即为各个文本文字对应的文字编码向量。可选的,在原始位置向量的预设维度与原始语义向量相同时,还可以将每个文本文字的原始语义向量与原始位置向量相加后得到各个文本文字的文字编码向量。
其中,根据各个文本文字的文字编码向量,通过注意力机制确定各个文本文字的文字特征向量可以基于BERT机制实现:根据所述各个文本文字的文字编码向量与预设的查询因子标准化向量,确定所述各个文本文字的查询因子向量;根据所述各个文本文字的文字编码向量与预设的键因子标准化向量,确定所述各个文本文字的键因子向量;根据所述各个文本文字的文字编码向量与预设的值因子标准化向量,确定所述各个文本文字的值因子向量;分别确定所述各个文本文字的查询因子向量与第一文本文字的键因子向量之间的相关性,得到所述各个文本文字关于所述第一文本文字的相关性权重,所述第一文本文字为所述第一候选回答文本中的任意一个文本文字;将所述第一候选回答文本中各个文本文字的值因子向量,按照各自关于所述第一文本文字的相关性权重加权后求和,得到所述第一文本文字的文字特征向量。
S103,根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离。
这里,注意力特征向量对应的向量空间由注意力特征向量的维度确定,例如,若注意力特征向量为二维向量,则注意力特征向量对应的向量空间为平面直角坐标系,又如,若注意力特征向量为三维向量,则注意力特征向量对应的向量空间为空间直角坐标系。
其中,各个候选回答文本之间的空间距离可以包含各个候选回答文本之间的欧式距离、曼哈顿距离、切比雪夫距离、闽可夫斯基距离、马氏距离、余弦夹角距离等,具体方式此处不做限定,计算出任意两个候选回答文本之间的空间距离。
S104,根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别。
这里,各个候选回答文本之间的空间距离确定之后,可以通过任意一种基于距离的聚类算法对候选回答文本进行聚类,这里以直接聚类法对各个候选回答文本进行聚类为例进行介绍,具体实现方式为:
首先,根据各个候选回答文本之间的空间距离,确定空间距离矩阵,其中,各个候选回答文本在空间距离矩阵中存在对应的行和对应的列,空间距离矩阵中的每个矩阵元素为该矩阵元素所在的行对应的候选回答文本,与该矩阵元素所在的列对应的候选回答文本之间的空间距离。在上述空间距离矩阵中,若同一候选回答文本在空间距离矩阵中对应的行与对应的列的序号相同(例如,某一候选回答文本可以在空间距离矩阵中对应第二行和第二列),那么该空间距离矩阵为一个对称矩阵,存在一个从矩阵左上角连接至矩阵右下角的对称轴,选取空间距离矩阵的对称轴一侧的矩阵元素进行后续处理。
接下来,将各个矩阵元素单独视为一类,然后根据距离最小的原则,选出预设的距离阈值范围内,最小的矩阵元素对应的第一对候选回答文本,将这第一对候选回答文本归于一类,然后将该矩阵元素所在的行以及与所在行的序号相等的列中的矩阵元素删去,并继续选出对称轴这一侧剩余的矩阵元素中,预设的距离阈值范围内的最小的矩阵元素对应的第二对候选回答文本,将这第二对候选回答文本归于一类,并将该矩阵元素所在的行以及与所在行的序号相等的列中的矩阵元素删除。若第二对候选回答文本中存在任意一个候选回答文本与第一对候选回答文本中的任意一个候选回答文本一致,将第一对候选回答文本与第二对候选回答文本中的各个候选回答文本归为一类,若不存在,则第一对候选回答文本与第二对候选回答文本各自归为一类。然后继续从空间距离矩阵的对称轴这一侧剩余的矩阵元素中,继续确定预设的距离阈值范围内最小的矩阵元素,并判断最小的矩阵元素对应的两个候选回答文本中是否存在已经归类的候选回答文本,若存在将另外一个候选回答文本归入同一类中,重复上述过程,直到空间距离矩阵对称轴这一侧不存在预设的距离阈值范围内的矩阵元素的情况下,完成对候选回答文本的聚类。
在完成对候选回答文本的聚类后,得到多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本。
参见图4,图4为本发明实施例提供的一种空间距离矩阵的示意图,以图4所示的空间距离矩阵为例进行说明,如图4中的空间距离矩阵中的第一行到第九行分别对应候选回答文本1至候选回答文本9,空间距离矩阵中的第一列到第九列分别对应候选回答文本1至候选回答文本9,图4所述的空间距离矩阵为对称矩阵,对称轴上的矩阵元素均为0,根据对称轴左下方的矩阵元素进行聚类。
为简化描述,记空间距离矩阵中第i行,第j列的矩阵元素为Dij,若预设的距离阈值范围为4以下,如图所示:
第一步,确定4以下的最小的矩阵元素为D94=0.5,将D94对应的候选回答文本4和候选回答文本9归为一类,并将第9行和第9列中的矩阵元素从空间距离矩阵中删去;
第二步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D75=0.8,将D75对应的候选回答文本7和候选回答文本5归为一类,并将第7行和第7列中的矩阵元素从空间距离矩阵中删去;
第三步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D82=0.9,将D82对应的候选回答文本8和候选回答文本2归为一类,并将第8行和第8列中的矩阵元素从空间距离矩阵中删去;
第四步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D43=1.2,将D43对应的候选回答文本4和候选回答文本3归为一类,同时在第一步中,将候选回答文本4和候选回答文本9归为了一类,因此,将候选回答文本3、候选回答文本4和候选回答文本9归为一类,并将第4行和第4列中的矩阵元素从空间距离矩阵中删除;
第五步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D21=1.5,将D21对应的候选回答文本2和候选回答文本1归为一类,同时在第三步中,将候选回答文本8和候选回答文本2归为了一类,因此,将候选回答文本1、候选回答文本2和候选回答文本8归为一类,并将第2行和第2列中的矩阵元素从空间距离矩阵中删除;
第六步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D65=1.7,将D65对应的候选回答文本6和候选回答文本5归为一类,同时在第二步中,将候选回答文本7和候选回答文本5归为了一类,因此,将候选回答文本5、候选回答文本6和候选回答文本7归为一类,并将第6行和第6中的矩阵元素从空间距离矩阵中删除;
第七步,空间距离矩阵中剩余的矩阵元素中,4以下的最小的矩阵元素为D31=3.1,将D31对应的候选回答文本3和候选回答文本1归为一类,同时在第四步中,将候选回答文本3、候选回答文本4和候选回答文本9归为了一类,在第五步中,将候选回答文本1、候选回答文本2和候选回答文本8归为了一类,因此将候选回答文本1、候选回答文本2、候选回答文本3、候选回答文本4、候选回答文本8和候选回答文本9归为一类,并将第3行和第3列中的矩阵元素从空间距离矩阵中删除;
第八步,空间距离矩阵中剩余的矩阵元素中不存在4以下的最小矩阵元素,因此,将候选回单文本分为了两个回答文本类别,第一个回答文本类别中包含候选回答文本1、候选回答文本2、候选回答文本3、候选回答文本4、候选回答文本8和候选回答文本9,第二个回答文本类别中包含候选回答文本5、候选回答文本6和候选回答文本7。
S105,确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别。
这里,目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本,也就是说目标回答文本类别中的候选回答文本即为通过本发明实施例提供的信息处理方法,针对业务问题的挖掘得到的能使客户较为满意的回复。在接收到针对业务问题的提问时,可以从目标回答文本类别下随机选取一个候选回答文本回复给用户。
通过步骤S101中候选回答文本的确定,将用户评价较高的候选回答文本筛除,将用户评价较高的候选回答文本进行聚类后获取目标回答文本类别,可以进一步筛除用户评价较高的候选回答文本中,由于用户不满意却随意给出的虚假好评的少部分候选回答文本,提高挖掘准确度。
本发明实施例中从对业务问题对应的样本回答文本中确定出多个满足预设用户满意程度条件的候选回答文本,然后通过注意力机制提取各个候选回答文本的回答文本特征,得到各个候选回答文本对应的注意力特征向量,根据各个候选回答文本对应的注意力特征向量,确定在注意力特征向量对应的向量空间中各个候选回答文本之间的空间距离,然后根据所述候选回答文本之间的空间距离,对候选回答文本进行聚类,得到针对业务问题的多个回答文本类别,进而确定各个回答文本类别下的候选回答文本的文本数量,并将文本数量最大的回答文本类别确定为目标回答类别。本发明实施例中通过候选用户文本的确定,将用户满意程度较低的样本回答文本筛除,进而对用户满意程度较高的候选回答文本进行聚类,识别出目标回答文本类别下的大多数用户都满意程度较高的一类候选回答文本,提高了针对业务问题的目标回答文本类别下的候选回答文本的确定效率和确定准确度。
参见图5,图5为本发明实施例提供的又一种信息处理方法的流程示意图,如图所示,所述方法可以包括以下步骤:
S201,从预设的问答文本数据库获取提问用户与回答用户之间的多个问答文本。
这里,问答文本包含提问文本和回答文本,获取到的多个问答文本可以是不同提问用户与不同回答用户之间的问答文本。问答文本数据库中的问答文本可以是提问用户与问答用户之间进行文本沟通后,截取的问答文本,也可以是提问用户与问答用户之间进行语音沟通后,截取的语音片段后通过语音识别技术转换成的问答文本。
S202,提取各个提问文本的提问文本特征,并根据各个提问文本的提问文本特征,从多个问答文本中筛选出针对所述业务问题的多个第一问答文本。
步骤S201中获取的问答文本可以包含针对多个业务问题的问答文本,通过步骤S202将针对业务问题的问答文本提取出来。而在上述多个问答文本的提问文本中存在针对业务问题的多种提问形式,例如针对业务问题“逾期还款能否开通信用卡”,可以有“我之前没按时还贷,还能办信用卡吗”、“我有逾期记录能不能办信用卡”、“我的征信记录有问题可不可以办信用卡”等多种提问形式,需要通过神经网络提取各个提问问题的提问文本特征,进而将业务问题对应的多种提问形式下的提问文本筛选出来。
其中提取各个提问文本的提问文本特征可以基于RNN、CNN、BERT等网络进行提问文本特征的提取,进而将特征提取后得到的特征向量输入softmax网络,实现对问答文本中提问文本是否是针对业务问题的提问文本进行二分类,进而将包含针对业务问题的提问文本的问答文本确定为第一问答文本。
S203,将第一问答文本包含的回答文本确定为样本回答文本。
S204,从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本。
S205,通过注意力机制提取各个候选回答文本的回答文本特征,得到各个候选回答文本对应的注意力特征向量。
具体的,通过注意力机制提取候选回答文本中文本文字的文字特征向量,对同一候选回答文本中的各个文本文字求平均值,得到各个候选回答文本对应的注意力特征向量。
下面结合图6对文字特征向量的确定方式进行举例介绍,参见图6,图6为本发明实施例提供的一种文字特征向量的确定方式示例图,如图所示,所述候选回答文本为“推荐红色”,分别生成针对“推”、“荐”、“红”和“色”文字编码向量X1、X2、X3和X4(具体实现方式参见图2对应的实施例中S102的实现方式),然后将X1分别与注意力层训练好的查询因子自标准化权重、键因子标准化权重和值因子标准化权重分别相乘,得到“推”对应的查询因子向量(query向量)、键因子向量(key向量)和值因子向量(value向量):Q1、K1和V1,按照同样方式,得到“荐”的query向量、key向量和value向量:Q2、K2和V2,“红”的query向量、key向量和value向量:Q3、K3和V3,以及“色”的query向量、key向量和value向量:Q4、K4和V4,进而生成针对“推”的文本特征向量的方式为:将“推”的query向量分别与“推”、“荐”、“红”和“色”各自的key向量相乘,得到“推”、“荐”、“红”和“色”各自的注意力得分:S1、S2、S3和S4,也就是“推”、“荐”、“红”和“色”关于“推”的相关性权重,进而为了避免各个向量之间相乘后的结果数值过大,通过softmax对各个注意力得分进行归一化处理,得到“推”、“荐”、“红”和“色”各自的归一化注意力得分S1’、S2’、S3’和S4’,分别将“推”、“荐”、“红”和“色”的归一化注意力得分与各自的value向量相乘后相加,即得到“推”对应的文字特征向量Z1。按照同样的方式即可得到“荐”、“红”和“色”的文字特征向量:Z2、Z3和Z4。
可选的,图1对应的注意力层中可以包含多个并行的注意力网络,各个并行的注意力网络各自的权重不共享(这里,各个注意力网络的权重可以包括各自的查询因子标准化权重、键因子标准化权重和值因子标准化权重),各个并行的注意力网络分别通过自身的权重矩阵对输入的文本文字进行文字特征提取,最后将各个注意力网络针对同一个文本文字的输出进行拼接,作为注意力层提取的各个文本文字的文字特征向量。
这里,可以直接将注意力层通过以上步骤得到的文字特征向量求平均确定为候选回答文本的注意力特征向量,可选的,还可以将图1中注意力层输出的文字特征向量以及文本编码层输出的文字编码向量均输入第二归一化层,进行归一化处理,通过这种网络连接可以缓解网络梯度消失的问题,并加强了内部文字特征的复用,减少计算量,进而将第二归一化层的输出传输给全连接层,实现将提取到的文本文字的局部特征融合成文本文字的整体特征,然后再将全连接层的输出以及第二归一化层的输出传输给第一归一化层,进一步缓解网络梯度消失的问题,加强内部文字特征的复用,减少计算量,并避免数据过大的问题,进而将第一归一化层的输出的各个文本文字的文字特征向量求平均,作为候选回答文本的注意力特征向量。
进一步可选的,可以在图1中的第一归一化层的后面设置多个权重独立的注意力层、第二归一化层、全连接层、第一归一化层的网络组合,用于提取各个文本文字的深层次特征。
S206,根据各个候选回答文本对应的注意力特征向量,确定在注意力特征向量对应的向量空间中,各个候选回答文本之间的空间距离。
S207,根据候选回答文本之间的空间距离,对候选回答文本进行聚类,得到针对业务问题的多个回答文本类别。
S208,确定各个回答文本类别下候选回答文本的文本数量,并将文本数量最大的回答文本类别确定为目标回答文本类别。
步骤S206~步骤S208的实现方式可以参阅图2对应的实施例中S203~S205的实现方式,不在赘述。
S209,确定所述目标回答文本类别下的候选回答文本在所述向量空间的聚类中心位置。
具体的,可以对目标回答文本类别下的各个候选回答文本的注意力特征向量求均值,得到的均值向量在向量空间中对应的位置即为聚类中心位置。
S210,分别根据所述目标回答文本类别下的各个候选回答文本的注意力特征向量,确定所述目标回答文本类别下的候选回答文本与所述聚类中心位置之间的聚类中心距离。
具体的,根据各个候选回答文本的注意力特征向量以及聚类中心位置对应的均值向量,确定各个候选回答文本与聚类中心之间的聚类中心距离。这里聚类中心距离可以包括二者之间的欧式距离、曼哈顿距离、切比雪夫距离、闽可夫斯基距离、马氏距离、余弦夹角距离等,具体方式此处不做限定。
S211,根据所述聚类中心距离,确定所述目标回答文本类别下各个候选回答文本的回复频率。
这里,回复频率表示在接收到针对业务问题进行多次提问的情况下,候选回答文本被作为回复文本返回给用户的次数的多少。与聚类中心位置距离越近的候选回答文本包含越多的目标回答文本类别的候选回答文本的特征,越能代表目标回答文本类别下的候选回答文本,也就是更能使用户满意,因此,根据聚类中心距离的不同,为候选回答文本设定不同的回复频率,使与聚类中心位置越近的候选回答文本对应越高的回复频率,保证更能使用户满意的候选回答文本以较高频次返回给用户,提高用户的满意度。可选的,可以在预设时间段后,确定各个候选回答文本被推送给用户后,满足预设用户满意程度条件的次数,进而根据上述次数调整各个候选回答文本的回复频率。
S212,接收用户针对业务问题的提问。
S213,根据所述目标回答文本类别下各个候选回答文本的回复频率,从所述目标回答文本类别下各个候选回答文本中确定返回给所述用户的回答文本。
上述回复频率的设置方式有多种,如,可以设置预设的回复次数为一个周期,设置每个周期中各个候选回答文本对应的回复次数及回复顺序,又如可以设置每个天、每个周或每个月中的固定的时间段回复相应的候选回答文本,具体设置方式可以有多种,此处不做限定。
本发明实施例中通过候选用户文本的确定,将用户满意程度较低的样本回答文本筛除,进而对用户满意程度较高的候选回答文本进行聚类,识别出目标回答文本类别下的大多数用户都满意程度较高的一类候选回答文本,提高了针对业务问题的目标回答文本类别下的候选回答文本的确定效率和确定准确度。进而在接收到用户针对业务问题的提问时,根据各个候选回答文本的回复频率,从目标回答文本类别下筛选作为回复的候选回答文本,保证了更能使用户满意的候选回答文本以较高频次返回给用户,提高用户的满意度。
参见图7,图7为本发明实施例提供的一种信息处理装置的结构示意图,如图所示,所述装置70可以包括候选文本确定模块701、特征提取模块702、空间距离确定模块703、聚类模块704和目标类别确定模块705,其中:
候选文本确定模块701,用于从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本。
特征提取模块702,用于通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量。
空间距离确定模块703,用于根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离。
聚类模块704,用于根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本。
目标类别确定模块705,用于确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
具体实现中,所述信息处理装置70可以通过其内置的各个功能模块执行如图2和图5的信息处理方法中的各个步骤,具体实施细节可参阅图2和图5对应的实施例中各个步骤的实现细节,此处不再赘述。
本发明实施例中候选文本确定模块从对业务问题对应的样本回答文本中确定出多个满足预设用户满意程度条件的候选回答文本,然后特征提取模块通过注意力机制提取各个候选回答文本的回答文本特征,得到各个候选回答文本对应的注意力特征向量,空间距离确定模块根据各个候选回答文本对应的注意力特征向量,确定在注意力特征向量对应的向量空间中各个候选回答文本之间的空间距离,然后聚类模块根据所述候选回答文本之间的空间距离,对候选回答文本进行聚类,得到针对业务问题的多个回答文本类别,进而目标类别确定模块确定各个回答文本类别下的候选回答文本的文本数量,并将文本数量最大的回答文本类别确定为目标回答类别。本发明实施例中通过候选用户文本的确定,将用户满意程度较低的样本回答文本筛除,进而对用户满意程度较高的候选回答文本进行聚类,识别出目标回答文本类别下的大多数用户都满意程度较高的一类候选回答文本,提高了针对业务问题的目标回答文本类别下的候选回答文本的确定效率和确定准确度。
参见图8,图8为本发明实施例提供的另一种信息处理装置的结构示意图,如图所示,所述信息处理装置80包括至少一个处理器801,例如CPU,至少一个网络接口804,用户接口803,存储器805,至少一个通信总线802。其中,通信总线802用于实现这些组件之间的连接通信。其中,用户接口803可以包括显示屏(Display)、键盘(Keyboard),可选用户接口803还可以包括标准的有线接口、无线接口。网络接口804可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器805可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器805可选地还可以是至少一个位于远离前述处理器801的存储装置。如图8所示,作为一种计算机存储介质的存储器805中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图8所示的信息处理装置800中,网络接口804主要用于连接存储所述样本回答文本的数据库;而用户接口803主要用于为用户提供输入的接口;而处理器801可以用于调用存储器805中存储的设备控制应用程序,以实现:
从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;
通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量;
根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;
根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本;
确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
需要说明的是,各个操作的实现还可以对应参照图2和图5所示的方法实施例的相应描述;所述处理器701还可以用于执行上述方法实施例中的其他操作。
本发明实施例还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被计算机执行时使所述计算机执行如前述实施例所述的方法,所述计算机可以为上述提到的信息处理装置的一部分。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种信息处理方法,其特征在于,包括:
从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;
通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量;
根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;
根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本;
确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
2.根据权利要求1所述的方法,其特征在于,所述样本回答文本携带用户在收到所述样本回答文本作为针对所述业务问题的回答文本的情况下返回的用户评价级别;
所述从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本包括:
将所述业务问题对应样本回答文本中,所述用户评价级别高于预设级别阈值的样本回答文本,确定为所述候选回答文本。
3.根据权利要求1所述的方法,其特征在于,所述从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本包括:
获取各个所述样本回答文本对应的用户回复文本,所述用户回复文本为用户针对接收到的所述样本回答文本的回复文本;
将各个样本回答文本对应的用户回复文本输入预设的情绪识别模型,得到各个所述用户回复文本的用户情绪状态,所述用户情绪状态为正向情绪状态或负向情绪状态中的一种;
将所述用户情绪状态为正向情绪状态的用户回复文本对应的样本回答文本,确定为所述候选回答文本。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
从预设的问答文本数据库获取提问用户与回答用户之间的多个问答文本,所述问答文本包含提问文本和回答文本;
提取各个所述提问文本的提问文本特征,并根据各个所述提问文本的提问文本特征,从所述多个问答文本中筛选出针对所述业务问题的多个第一问答文本;
将所述第一问答文本包含的回答文本确定为所述样本回答文本。
5.根据权利要求1所述的方法,其特征在于,第一候选回答文本中包含多个文本文字,所述第一候选回答文本为任一所述候选回答文本;
所述通过注意力机制提取各个所述候选回答文本的回答文本特征,得到所述各个候选回答文本对应的注意力特征向量包括:
对第一候选回答文本中的各个文本文字进行编码,得到各个所述文本文字的文字编码向量;
根据各个所述文本文字的文字编码向量,通过注意力机制确定所述第一候选回答文本中各个文本文字的文字特征向量;
将所述第一候选回答文本的各个文本文字的文字特征向量的平均值,确定为所述第一候选回答文本的注意力特征向量。
6.根据权利要求5所述的方法,其特征在于,所述根据各个所述文本文字的文字编码向量,通过注意力机制确定所述第一候选回答文本中各个文本文字的文字特征向量包括:
根据所述各个文本文字的文字编码向量与预设的查询因子标准化向量,确定所述各个文本文字的查询因子向量;
根据所述各个文本文字的文字编码向量与预设的键因子标准化向量,确定所述各个文本文字的键因子向量;
根据所述各个文本文字的文字编码向量与预设的值因子标准化向量,确定所述各个文本文字的值因子向量;
分别确定所述各个文本文字的查询因子向量与第一文本文字的键因子向量之间的相关性,得到所述各个文本文字关于所述第一文本文字的相关性权重,所述第一文本文字为所述第一候选回答文本中的任意一个文本文字;
将所述第一候选回答文本中各个文本文字的值因子向量,按照各自关于所述第一文本文字的相关性权重加权后求和,得到所述第一文本文字的文字特征向量。
7.根据权利要求1~6中任一所述的方法,其特征在于,所述方法还包括:
确定所述目标回答文本类别下的候选回答文本在所述向量空间的聚类中心位置;
分别根据所述目标回答文本类别下的各个候选回答文本的注意力特征向量,确定所述目标回答文本类别下的候选回答文本与所述聚类中心位置之间的聚类中心距离;
根据所述聚类中心距离,确定所述目标回答文本类别下各个候选回答文本的回复频率;
在接收用户针对所述业务问题的提问的情况下,根据所述目标回答文本类别下各个候选回答文本的回复频率,从所述目标回答文本类别下各个候选回答文本中确定返回给所述用户的回答文本。
8.一种信息处理装置,其特征在于,包括:
候选文本确定模块,用于从业务问题对应的样本回答文本中,确定出多个满足预设用户满意程度条件的候选回答文本;
特征提取模块,用于通过注意力机制提取各个所述候选回答文本的回答文本特征,得到各个所述候选回答文本对应的注意力特征向量;
空间距离确定模块,用于根据各个所述候选回答文本对应的注意力特征向量,确定在所述注意力特征向量对应的向量空间中,各个所述候选回答文本之间的空间距离;
聚类模块,用于根据所述候选回答文本之间的空间距离,对所述候选回答文本进行聚类,得到针对所述业务问题的多个回答文本类别,各个所述回答文本类别下对应至少一个候选回答文本;
目标类别确定模块,用于确定各个所述回答文本类别下候选回答文本的文本数量,并将所述文本数量最大的回答文本类别确定为目标回答文本类别,所述目标回答文本类别下的候选回答文本被用于在接收到针对所述业务问题的提问的情况下,从所述目标回答文本类别下的候选回答文本中确定出针对所述提问的回答文本。
9.一种信息处理装置,其特征在于,包括处理器和存储器;
所述处理器与存储器相连,其中,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以执行如权利要求1至7任意一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现权利要求1至7任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911264730.1A CN111159367B (zh) | 2019-12-11 | 2019-12-11 | 一种信息处理方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911264730.1A CN111159367B (zh) | 2019-12-11 | 2019-12-11 | 一种信息处理方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111159367A true CN111159367A (zh) | 2020-05-15 |
CN111159367B CN111159367B (zh) | 2023-09-05 |
Family
ID=70557005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911264730.1A Active CN111159367B (zh) | 2019-12-11 | 2019-12-11 | 一种信息处理方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111159367B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611382A (zh) * | 2020-05-22 | 2020-09-01 | 贝壳技术有限公司 | 话术模型训练方法、对话信息生成方法及装置、系统 |
CN111694942A (zh) * | 2020-05-29 | 2020-09-22 | 平安科技(深圳)有限公司 | 问答方法、装置、设备及计算机可读存储介质 |
CN111931668A (zh) * | 2020-08-14 | 2020-11-13 | 中国科学院重庆绿色智能技术研究院 | 一种基于自适应卷积神经网络的目标属性识别方法及系统 |
CN111984789A (zh) * | 2020-08-26 | 2020-11-24 | 普信恒业科技发展(北京)有限公司 | 一种语料分类方法、装置及服务器 |
CN112989815A (zh) * | 2021-03-23 | 2021-06-18 | 平安国际智慧城市科技股份有限公司 | 基于信息交互的文本相似度识别方法、装置、设备及介质 |
CN115363594A (zh) * | 2022-09-13 | 2022-11-22 | 广州迪迈信息科技有限公司 | 一种基于循环神经网络的实时心脏疾病筛查方法 |
CN117149982A (zh) * | 2023-10-27 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的问答处理方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015062482A1 (en) * | 2013-11-01 | 2015-05-07 | Tencent Technology (Shenzhen) Company Limited | System and method for automatic question answering |
CN107980130A (zh) * | 2017-11-02 | 2018-05-01 | 深圳前海达闼云端智能科技有限公司 | 自动回答方法、装置、存储介质及电子设备 |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
CN110442675A (zh) * | 2019-06-27 | 2019-11-12 | 平安科技(深圳)有限公司 | 问答匹配处理、模型训练方法、装置、设备及存储介质 |
-
2019
- 2019-12-11 CN CN201911264730.1A patent/CN111159367B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015062482A1 (en) * | 2013-11-01 | 2015-05-07 | Tencent Technology (Shenzhen) Company Limited | System and method for automatic question answering |
CN108536708A (zh) * | 2017-03-03 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 一种自动问答处理方法及自动问答系统 |
US20190243900A1 (en) * | 2017-03-03 | 2019-08-08 | Tencent Technology (Shenzhen) Company Limited | Automatic questioning and answering processing method and automatic questioning and answering system |
CN107980130A (zh) * | 2017-11-02 | 2018-05-01 | 深圳前海达闼云端智能科技有限公司 | 自动回答方法、装置、存储介质及电子设备 |
CN110442675A (zh) * | 2019-06-27 | 2019-11-12 | 平安科技(深圳)有限公司 | 问答匹配处理、模型训练方法、装置、设备及存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611382A (zh) * | 2020-05-22 | 2020-09-01 | 贝壳技术有限公司 | 话术模型训练方法、对话信息生成方法及装置、系统 |
CN111694942A (zh) * | 2020-05-29 | 2020-09-22 | 平安科技(深圳)有限公司 | 问答方法、装置、设备及计算机可读存储介质 |
CN111931668A (zh) * | 2020-08-14 | 2020-11-13 | 中国科学院重庆绿色智能技术研究院 | 一种基于自适应卷积神经网络的目标属性识别方法及系统 |
CN111984789A (zh) * | 2020-08-26 | 2020-11-24 | 普信恒业科技发展(北京)有限公司 | 一种语料分类方法、装置及服务器 |
CN111984789B (zh) * | 2020-08-26 | 2024-01-30 | 普信恒业科技发展(北京)有限公司 | 一种语料分类方法、装置及服务器 |
CN112989815A (zh) * | 2021-03-23 | 2021-06-18 | 平安国际智慧城市科技股份有限公司 | 基于信息交互的文本相似度识别方法、装置、设备及介质 |
CN115363594A (zh) * | 2022-09-13 | 2022-11-22 | 广州迪迈信息科技有限公司 | 一种基于循环神经网络的实时心脏疾病筛查方法 |
CN117149982A (zh) * | 2023-10-27 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的问答处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111159367B (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111159367B (zh) | 一种信息处理方法及相关设备 | |
CN110598206B (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN108959396B (zh) | 机器阅读模型训练方法及装置、问答方法及装置 | |
US20220044094A1 (en) | Method and apparatus for constructing network structure optimizer, and computer-readable storage medium | |
CN110737801B (zh) | 内容分类方法、装置、计算机设备和存储介质 | |
CN108959246A (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
CN117033608A (zh) | 一种基于大语言模型的知识图谱生成式问答方法及系统 | |
CN114330354B (zh) | 一种基于词汇增强的事件抽取方法、装置及存储介质 | |
US11687716B2 (en) | Machine-learning techniques for augmenting electronic documents with data-verification indicators | |
CN113220832B (zh) | 一种文本处理方法及装置 | |
CN111309887B (zh) | 一种训练文本关键内容提取模型的方法和系统 | |
CN110399473B (zh) | 为用户问题确定答案的方法和装置 | |
CN115455171B (zh) | 文本视频的互检索以及模型训练方法、装置、设备及介质 | |
CN111125457A (zh) | 一种深度跨模态哈希检索方法及装置 | |
CN113297410A (zh) | 一种图像检索方法、装置、计算机设备及存储介质 | |
CN112148831A (zh) | 图文混合检索方法、装置、存储介质、计算机设备 | |
CN111143507A (zh) | 一种基于复合式问题的阅读理解方法 | |
CN115730597A (zh) | 多级语义意图识别方法及其相关设备 | |
CN116976920A (zh) | 商品导购方法及其装置、设备、介质 | |
CN111339256A (zh) | 用于文本处理的方法和装置 | |
CN114328841A (zh) | 问答模型训练方法及装置、问答方法及装置 | |
CN113779245A (zh) | 一种评论情感原因三元组抽取方法 | |
CN114282528A (zh) | 一种关键词提取方法、装置、设备及存储介质 | |
WO2021118462A1 (en) | Context detection | |
CN115617975B (zh) | 针对少样本多轮对话的意图识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |