CN110647914A - 智能服务水平训练方法、装置及计算机可读存储介质 - Google Patents
智能服务水平训练方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110647914A CN110647914A CN201910752391.5A CN201910752391A CN110647914A CN 110647914 A CN110647914 A CN 110647914A CN 201910752391 A CN201910752391 A CN 201910752391A CN 110647914 A CN110647914 A CN 110647914A
- Authority
- CN
- China
- Prior art keywords
- training
- service level
- intelligent service
- data
- question
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 189
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000007781 pre-processing Methods 0.000 claims abstract description 22
- 239000003795 chemical substances by application Substances 0.000 claims description 67
- 230000011218 segmentation Effects 0.000 claims description 62
- 239000013598 vector Substances 0.000 claims description 56
- 230000006870 function Effects 0.000 claims description 47
- 230000006399 behavior Effects 0.000 claims description 29
- 238000013527 convolutional neural network Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 20
- 238000012163 sequencing technique Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 8
- 239000000126 substance Substances 0.000 claims description 8
- 238000007476 Maximum Likelihood Methods 0.000 claims description 6
- 238000013016 damping Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 10
- 238000013507 mapping Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种人工智能技术,揭露了一种智能服务水平训练方法,包括:接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练;根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。本发明还提出一种智能服务水平训练装置以及一种计算机可读存储介质。本发明实现了服务水平的高效训练。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于用户网络行为记录的智能服务水平训练方法、装置及计算机可读存储介质。
背景技术
代理人是以被代理人名义进行代理活动的人,被代理人对代理人的代理行为承担民事责任,因此被代理人在选择代理人,如销售代理人、采购代理人时,需要所选择的代理人能够跟自己的想法保持一致,表现在行动上就包括代理人跟被代理人针对问题的回答需保持一致。
为了能够帮助代理人更好地为被代理人服务,提升代理人的技能水平,通常会对代理人进行培训,因此随之产生了很多代理人的智能培训系统。在目前的智能培训系统中大多培训内容都是提前定制的,因此培训内容会有滞后。如何自动升级最新的培训内容,进行智能训练是培训系统的主要难题,同时,由于培训内容中会包含大量干扰模型判断问题答案的背景信息,因此,简单的使用诸如余弦相似度、Jaccard距离、VSM等方法建立智能培训系统,得到的准确率会很低,导致培训系统给出的标准答案不一定是被代理人想要的问题的答案。
发明内容
本发明提供一种智能服务水平训练方法、装置及计算机可读存储介质,其主要目的在于当用户进行服务水平训练时,给用户呈现出高效的训练结果。
为实现上述目的,本发明提供的一种智能服务水平训练方法,包括:
接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;
通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练;
根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
可选地,所述预处理操作包括:
对所述网络提问问题集进行文本改写;
其中,所述文本改写包括分词处理和关键词提取,其中:
所述分词处理包括:
利用全切分法对所述网络提问问题集进行切分,获取多种分词方式;
通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述网络提问问题集的分词结果。
所述关键词提取包括:
计算所述分词结果中的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
计算出词语Wi的重要度得分:
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
可选地,所述预处理操作还包括:
通过欧式公式计算出所述改写后的文本中数据对象之间的距离,根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
可选地,所述利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,包括:
预设所述特征之间存在独立性假设,其中,给定样本:x=(x1,x2,…,xd)T;
计算出所述每一个数据在所述类簇中心wi概率为:
其中d是特征维数,xk是样本在第k个特征上的取值;
对所述特征进行平滑:
其中,ck表示第k维特征可能取值的个数,α为系数;
通过极大似然估计方法得到:
其中,分子表示所述wi类的集合Di中第k个特征的取值为xk的样本数。
可选地,所述利用所述标签集和数据训练集对构建的智能服务水平训练模型进行训练,得到训练值,包括:
构建包括卷积神经网络的智能服务水平训练模型;
将所述标签集和数据训练集转换为向量后输入至所述卷积神经网络的输入层中,并通过在所述卷积神经网络卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量;
利用所述卷积神经网络的池化层对所述特征向量进行池化操作并输入至全连接层,通过激活函数对所述特征向量输入分类标签,输出文本类别概率,选取所述文本类别中概率最高的文本作为训练值。
此外,为实现上述目的,本发明还提供一种智能服务水平训练装置,该装置包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的智能服务水平训练程序,所述智能服务水平训练程序被所述处理器执行时实现如下步骤:
接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;
通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练;
根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
可选地,所述预处理操作包括:
对所述网络提问问题集进行文本改写;
其中,所述文本改写包括分词处理和关键词提取,其中:
所述分词处理包括:
利用全切分法对所述网络提问问题集进行切分,获取多种分词方式;
通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述网络提问问题集的分词结果。
所述关键词提取包括:
计算所述分词结果中的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
计算出词语Wi的重要度得分:
其中,是与顶点Wi有关的集合,η为阻尼系数;
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
可选地,所述预处理操作还包括:
通过欧式公式计算出所述改写后的文本中数据对象之间的距离,根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
可选地,所述利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,包括:
预设所述特征之间存在独立性假设,其中,给定样本:x=(x1,x2,…,xd)T;
计算出所述每一个数据在所述类簇中心wi概率为:
其中d是特征维数,xk是样本在第k个特征上的取值;
对所述特征进行平滑:
其中,ck表示第k维特征可能取值的个数,α为系数;
通过极大似然估计方法得到:
其中,分子表示所述wi类的集合Di中第k个特征的取值为xk的样本数。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有智能服务水平训练程序,所述智能服务水平训练程序可被一个或者多个处理器执行,以实现如上所述的智能服务水平训练方法的步骤。
本发明提出的智能服务水平训练方法、装置及计算机可读存储介质,在用户进行服务水平训练时,对接收用户的网络行为记录集和网络提问问题集进行处理操作后完成对所述智能服务水平训练模型的训练,从而构建一个智能问答程序,从而可以给用户呈现出高效的训练结果。
附图说明
图1为本发明一实施例提供的智能服务水平训练方法的流程示意图;
图2为本发明一实施例提供的智能服务水平训练装置的内部结构示意图;
图3为本发明一实施例提供的智能服务水平训练装置中智能服务水平训练程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种智能服务水平训练方法。参照图1所示,为本发明一实施例提供的智能服务水平训练方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,智能服务水平训练方法包括:
S1、接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集。
本发明较佳实施例中,所述用户包括被代理人。所述被代理人指的是授权代理人以自己名义从事某种法律行为,但被代理人直接承担权利和义务的人。所述代理人是以被代理人名义进行代理活动的人。
本发明较佳实施例将所述网络行为记录集和网络提问问题集存入数据平台中。所述数据平台为Hadoop,所述Hadoop是一个由Apache基金会所开发的分布式系统基础架构,包括:HDFS和MapReduce。其中,HDFS是一种分布式文件系统,用于对海量的数据提供存储,MapReduce是一种编程模型,用于对所述海量的数据提供计算。
进一步地,本发明较佳实施例将所述被代理人网络行为记录集和网络提问问题集存储在所述HDFS中,并利用所述MapReduce对所述行为记录集进行大数据分析,得到所述被代理人的用户画像。所述用户画像指的是根据用户的属性、用户偏好、生活习惯、用户行为等信息而抽象出来的标签化用户模型。
进一步地,本发明较佳实施例中,所述预处理操作包含:对所述问题集进行文本改写以及对所述改写后的文本进行分群。
所述文本改写包含分词操作以及关键词提取操作。
在所述分词操作中,本发明较佳实施例中通过预设所述问题集中的句子为S,使用全切分法对所述句子S进行切分,获得所有可能的中文分词方式,计算出所述每一种分词方式的概率,选出其中概率最大的一种分词方式中的分词结果,作为所述问题集最终的分词结果。
本发明较佳实施例根据马尔科夫性选出概率最大的一种分词方式。根据所述马尔科夫性,文档中第n个词出现的可能性只与其前面n-1个词语的出现有关,而与第n个词语之后的所有词语无关,因此,在一个由词序列{W1,W2…Wm}组成的句子S中,在前n-1个词语出现的情况下,第n词语Wn出现的概率为:
P(Wn|W1,…Wn-1)=P(Wn|Wn-i+1,…Wn-1)
因此,所述句子S按照所述词序排列的概率为:
P(S)=P(W1W2…Wm)=P(W1)P(W2|W1)…P(Wm|Wm-i+1,…Wm-1)
其中条件概率P(Wm|Wm-i+1,…Wm-1)表示:在字符串Wm-i+1,…Wm-1出现的情况下Wm出现的概率,通过在大规模语料库训练的基础上,使用二元语法模型,因此,所述句子S的概率模型为:
本发明从上述计算出来的所有P(S)选择P(S)的极大值对应的分词结果作为本案的分词结果:
进一步地,本发明较佳实施例通过关键词提取算法对所述分词结果进行关键词抽取。所述关键词提取算法是利用统计信息、词向量信息以及词语间的依存句法信息,通过构建依存关系图来计算词语之间的关联强度,利用TextRank算法迭代算出词语的重要度得分,并根据句子的依存句法分析结果对所有非停用词构造无向图,利用词语之间的引力值以及依存关联度计算求得边的权重。
详细地,所关键词提取方法包括:
计算根据上述分词结果得到的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
利用TextRank算法建立一个有所有分词构建的无向图G=(V,E),其中V是顶点的集合,E是边的集合,得到词语的重要度得分集合。
计算出词语Wi的重要度得分:
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
本发明较佳实施例进一步通过欧式公式计算出所述改写后的文本中数据对象之间的距离,预设假设xi,xj为所述改写后的文本中的数据,D表示所述数据对象的属性个数,所述欧式公式为:
根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,所述Centerk表示一个含有D属性的向量,所述Centerk更新公式为:其中Ck表示第k个类簇中数据对象的个数。进一步地,本发明通过所述欧式公式和Centerk更新公式计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
优选地,利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
其中,所述分类器为朴素贝叶斯分类器,所述朴素贝叶斯分类器是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单概率分类器。
所述计算出所述每一个数据在所述类簇中心的概率大小计算公式如下所示:
预设所述特征之间存在独立性假设,其中,给定样本:x=(x1,x2,…,xd)T;
计算出所述每一个数据在所述类簇中心wi概率为:
其中d是特征维数,xk是样本在第k个特征上的取值;
对所述特征进行平滑:
其中,ck表示第k维特征可能取值的个数,α为系数;
通过极大似然估计方法得到:
其中,分子表示所述wi类的集合Di中第k个特征的取值为xk的样本数。
S2、通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练。
本发明较佳实施例中,所述智能服务水平训练模型包括卷积神经网络。所述卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。
本发明较佳实施例中,所述卷积神经网络包含输入层、卷积层、池化层以及输出层。本发明较佳实施例对所述数据训练集和标签集的文本转换为向量表示,将所述向量输入至所述卷积神经网络模型的输入层中,并通过在所述卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量,所述过滤器可以为{filter0,filter1},分别用于在相似通道和相异通道上来生成一组特征;利用所述池化层对所述特征向量进行池化操作并输入至全连接层。
本发明较佳实施例中,预设所述数据训练集中的文本为Z和所述标签集中的文本为T,将所述文本Z中的关键词序列KeyZ中的每一个关键词KeyZ都转化为向量表示通过所述文本T中的关键词序列KeyT计算KeyZ的语义匹配向量即用KeyT中的部分关键词表示KeyZ,基于语义匹配向量对进行分解,得到KeyZ与KeyT间相似向量以及相异向量对所述文本Z中中每一个词都进行上述操作,便得到KZ的相似矩阵和相异矩阵将和进行合并便得到文本Z和文本T的特征向量。
进一步地,本发明较佳实施例中通过Softmax激活函数对所述特征向量输入分类标签,从而计算出输出的文本类别概率,选取所述文本类别中概率最高的文本作为训练值,并将所述训练值和标签集输入至损失函数中,计算损失函数值,当所述损失函数值小于阈值时,退出训练。本发明较佳实施例中所述阈值预设为0.01。
所述softmax函数计算公式为:
所述损失函数计算公式为:
其中,loss是损失函数值,yi是所述输出的文本的类别i的真实标签,k是所述输出的文本类别数,N是所述输出的文本的样本总数。
S3、根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
本发明较佳实施例所述智能问答程序采用python语言进行编译,所述智能问答程序用于提升代理人服务水平。进一步地,所述智能问答程序从所述网络提问问题集中按照问题的简易程度对代理人进行训练,并根据所述训练的智能服务水平训练模型得到所述对代理人提问问题的标准答案,利用余弦相似度计算出所述代理人的答案与标准答案的相似度。所述余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量,余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似。本发明较佳实施例中预设所述标准答案为X以及代理人答案为Y,其中,所述余弦相似度计算公式如下所示:
进一步地,本发明实施例预设标准答案At,对所述标准答案At归纳出多个得分要点。其中,所述多个得分要点的编号分别记为At-1,At-2,…At-n。所述智能问答程序根据所述得分要点的重要程度给出一定的分值比重,其中,所有得分要点的分值比重和等于100%,并对所述得分要点中的关键词进行编号分别标记为At-t.1,At-t.2,…At-t.n。进一步地,本发明实施例中通过计算代理人答案中所有关键词语与对应得分要点之间的相似度,将得到的所有相似度与所述对应得分要点所占比重分值相乘后再累加起来,得到所述代理人答案的得分并给出建议。详细地,本发明所述给出建议通过以下两种方式:方式一:通过在编译上述智能问答程序时,对答案的重要得分要点进行标红处理,在代理人回答问题后将标红处理后的重要得分要点展现在所述智能问答程序的页面上;方式二:通过在上述智能问答程序中设置跳转页面的点击按钮,根据所述点击按钮可以跳转到所述代理人错误问题的标准答案页面中。
发明还提供一种智能服务水平训练装置。参照图2所示,为本发明一实施例提供的智能服务水平训练装置的内部结构示意图。
在本实施例中,所述智能服务水平训练装置1可以是PC(Personal Computer,个人电脑),或者是智能手机、平板电脑、便携计算机等终端设备,也可以是一种服务器等。该智能服务水平训练装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是智能服务水平训练装置1的内部存储单元,例如该智能服务水平训练装置1的硬盘。存储器11在另一些实施例中也可以是智能服务水平训练装置1的外部存储设备,例如智能服务水平训练装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括智能服务水平训练装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于智能服务水平训练装置1的应用软件及各类数据,例如智能服务水平训练程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行智能服务水平训练程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在智能服务水平训练装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及智能服务水平训练程序01的智能服务水平训练装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对智能服务水平训练装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有智能服务水平训练程序01;处理器12执行存储器11中存储的智能服务水平训练程序01时实现如下步骤:
步骤一、接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集。
本发明较佳实施例中,所述用户包括被代理人。所述被代理人指的是授权代理人以自己名义从事某种法律行为,但被代理人直接承担权利和义务的人。所述代理人是以被代理人名义进行代理活动的人。
本发明较佳实施例将所述网络行为记录集和网络提问问题集存入数据平台中。所述数据平台为Hadoop,所述Hadoop是一个由Apache基金会所开发的分布式系统基础架构,包括:HDFS和MapReduce。其中,HDFS是一种分布式文件系统,用于对海量的数据提供存储,MapReduce是一种编程模型,用于对所述海量的数据提供计算。
进一步地,本发明较佳实施例将所述被代理人网络行为记录集和网络提问问题集存储在所述HDFS中,并利用所述MapReduce对所述行为记录集进行大数据分析,得到所述被代理人的用户画像。所述用户画像指的是根据用户的属性、用户偏好、生活习惯、用户行为等信息而抽象出来的标签化用户模型。
进一步地,本发明较佳实施例中,所述预处理操作包含:对所述问题集进行文本改写以及对所述改写后的文本进行分群。
所述文本改写包含分词操作以及关键词提取操作。
在所述分词操作中,本发明较佳实施例中通过预设所述问题集中的句子为S,使用全切分法对所述句子S进行切分,获得所有可能的中文分词方式,计算出所述每一种分词方式的概率,选出其中概率最大的一种分词方式中的分词结果,作为所述问题集最终的分词结果。
本发明较佳实施例根据马尔科夫性选出概率最大的一种分词方式。根据所述马尔科夫性,文档中第n个词出现的可能性只与其前面n-1个词语的出现有关,而与第n个词语之后的所有词语无关,因此,在一个由词序列{W1,W2…Wm}组成的句子S中,在前n-1个词语出现的情况下,第n词语Wn出现的概率为:
P(Wn|W1,…Wn-1)=P(Wn|Wn-i+1,…Wn-1)
因此,所述句子S按照所述词序排列的概率为:
P(S)=P(W1W2…Wm)=P(W1)P(W2|W1)…P(Wm|Wm-i+1,…Wm-1)
其中条件概率P(Wm|Wm-i+1,…Wm-1)表示:在字符串Wm-i+1,…Wm-1出现的情况下Wm出现的概率,通过在大规模语料库训练的基础上,使用二元语法模型,因此,所述句子S的概率模型为:
本发明从上述计算出来的所有P(S)选择P(S)的极大值对应的分词结果作为本案的分词结果:
进一步地,本发明较佳实施例通过关键词提取算法对所述分词结果进行关键词抽取。所述关键词提取算法是利用统计信息、词向量信息以及词语间的依存句法信息,通过构建依存关系图来计算词语之间的关联强度,利用TextRank算法迭代算出词语的重要度得分,并根据句子的依存句法分析结果对所有非停用词构造无向图,利用词语之间的引力值以及依存关联度计算求得边的权重。
详细地,所关键词提取方法包括:
计算根据上述分词结果得到的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
利用TextRank算法建立一个有所有分词构建的无向图G=(V,E),其中V是顶点的集合,E是边的集合,得到词语的重要度得分集合。
计算出词语Wi的重要度得分:
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
本发明较佳实施例进一步通过欧式公式计算出所述改写后的文本中数据对象之间的距离,预设假设xi,xj为所述改写后的文本中的数据,D表示所述数据对象的属性个数,所述欧式公式为:
根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,所述Centerk表示一个含有D属性的向量,所述Centerk更新公式为:其中Ck表示第k个类簇中数据对象的个数。进一步地,本发明通过所述欧式公式和Centerk更新公式计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
优选地,利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
其中,所述分类器为朴素贝叶斯分类器,所述朴素贝叶斯分类器是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单概率分类器。
所述计算出所述每一个数据在所述类簇中心的概率大小计算公式如下所示:
预设所述特征之间存在独立性假设,其中,给定样本:x=(x1,x2,…,xd)T;
计算出所述每一个数据在所述类簇中心wi概率为:
其中d是特征维数,xk是样本在第k个特征上的取值;
对所述特征进行平滑:
其中,ck表示第k维特征可能取值的个数,α为系数;
通过极大似然估计方法得到:
其中,分子表示所述wi类的集合Di中第k个特征的取值为xk的样本数。
步骤二、通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练。
本发明较佳实施例中,所述智能服务水平训练模型包括卷积神经网络。所述卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。
本发明较佳实施例中,所述卷积神经网络包含输入层、卷积层、池化层以及输出层。本发明较佳实施例对所述数据训练集和标签集的文本转换为向量表示,将所述向量输入至所述卷积神经网络模型的输入层中,并通过在所述卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量,所述过滤器可以为{filter0,filter1},分别用于在相似通道和相异通道上来生成一组特征;利用所述池化层对所述特征向量进行池化操作并输入至全连接层。
本发明较佳实施例中,预设所述数据训练集中的文本为Z和所述标签集中的文本为T,将所述文本Z中的关键词序列KeyZ中的每一个关键词KeyZ都转化为向量表示通过所述文本T中的关键词序列KeyT计算KeyZ的语义匹配向量即用KeyT中的部分关键词表示KeyZ,基于语义匹配向量对进行分解,得到KeyZ与KeyT间相似向量以及相异向量对所述文本Z中中每一个词都进行上述操作,便得到KZ的相似矩阵和相异矩阵将和进行合并便得到文本Z和文本T的特征向量。
进一步地,本发明较佳实施例中通过Softmax激活函数对所述特征向量输入分类标签,从而计算出输出的文本类别概率,选取所述文本类别中概率最高的文本作为训练值,并将所述训练值和标签集输入至损失函数中,计算损失函数值,当所述损失函数值小于阈值时,退出训练。本发明较佳实施例中所述阈值预设为0.01。
所述softmax函数计算公式为:
所述损失函数计算公式为:
其中,loss是损失函数值,yi是所述输出的文本的类别i的真实标签,k是所述输出的文本类别数,N是所述输出的文本的样本总数。
步骤三、根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
本发明较佳实施例所述智能问答程序采用python语言进行编译,所述智能问答程序用于提升代理人服务水平。进一步地,所述智能问答程序从所述网络提问问题集中按照问题的简易程度对代理人进行训练,并根据所述训练的智能服务水平训练模型得到所述对代理人提问问题的标准答案,利用余弦相似度计算出所述代理人的答案与标准答案的相似度。所述余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量,余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似。本发明较佳实施例中预设所述标准答案为X以及代理人答案为Y,其中,所述余弦相似度计算公式如下所示:
进一步地,本发明实施例预设标准答案At,对所述标准答案At归纳出多个得分要点。其中,所述多个得分要点的编号分别记为At-1,At-2,…At-n。所述智能问答程序根据所述得分要点的重要程度给出一定的分值比重,其中,所有得分要点的分值比重和等于100%,并对所述得分要点中的关键词进行编号分别标记为At-t.1,At-t.2,…At-t.n。进一步地,本发明实施例中通过计算代理人答案中所有关键词语与对应得分要点之间的相似度,将得到的所有相似度与所述对应得分要点所占比重分值相乘后再累加起来,得到所述代理人答案的得分并给出建议。详细地,本发明所述给出建议通过以下两种方式:方式一:通过在编译上述智能问答程序时,对答案的重要得分要点进行标红处理,在代理人回答问题后将标红处理后的重要得分要点展现在所述智能问答程序的页面上;方式二:通过在上述智能问答程序中设置跳转页面的点击按钮,根据所述点击按钮可以跳转到所述代理人错误问题的标准答案页面中。
可选地,在其他实施例中,智能服务水平训练程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述智能服务水平训练程序在智能服务水平训练装置中的执行过程。
例如,参照图3所示,为本发明智能服务水平训练装置一实施例中的智能服务水平训练程序的程序模块示意图,该实施例中,所述智能服务水平训练程序可以被分割为用户行为分析模块10、问题预处理模块20、模型训练模块30以及服务水平训练模块40,示例性地:
所述用户行为分析模块10用于:接收用户的网络行为记录集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集。
所述问题预处理模块20用于:接收用户的网络提问问题集,将对所述网络提问问题集进行预处理操作后得到数据训练集。
所述模型训练模块30用于:通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练。
所述服务水平训练模块40用于:根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
上述用户行为分析模块10、问题预处理模块20、模型训练模块30以及服务水平训练模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有智能服务水平训练程序,所述智能服务水平训练程序可被一个或多个处理器执行,以实现如下操作:
接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;
通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练;
根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
本发明计算机可读存储介质具体实施方式与上述智能服务水平训练装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种智能服务水平训练方法,其特征在于,所述方法包括:
接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;
通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练;
根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
2.如权利要求1所述的智能服务水平训练方法,其特征在于,所述预处理操作包括:
对所述网络提问问题集进行文本改写;
其中,所述文本改写包括分词处理和关键词提取,其中:
所述分词处理包括:
利用全切分法对所述网络提问问题集进行切分,获取多种分词方式;
通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述网络提问问题集的分词结果。
所述关键词提取包括:
计算所述分词结果中的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
计算出词语Wi的重要度得分:
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
3.如权利要求2所述的智能服务水平训练方法,其特征在于,所述预处理操作还包括:
通过欧式公式计算出所述改写后的文本中数据对象之间的距离,根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
5.如权利要求1至4中任意一项所述的智能服务水平训练方法,其特征在于,所述利用所述标签集和数据训练集对构建的智能服务水平训练模型进行训练,得到训练值,包括:
构建包括卷积神经网络的智能服务水平训练模型;
将所述标签集和数据训练集转换为向量后输入至所述卷积神经网络的输入层中,并通过在所述卷积神经网络卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量;
利用所述卷积神经网络的池化层对所述特征向量进行池化操作并输入至全连接层,通过激活函数对所述特征向量输入分类标签,输出文本类别概率,选取所述文本类别中概率最高的文本作为训练值。
6.一种智能服务水平训练装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的智能服务水平训练程序,所述智能服务水平训练程序被所述处理器执行时实现如下步骤:
接收用户的网络行为记录集和网络提问问题集,根据所述用户行为记录集得到用户画像,并将所述用户画像作为标签集,对所述网络提问问题集进行预处理操作后得到数据训练集;
通过所述标签集和数据训练集对预先构建的智能服务水平训练模型进行训练,得到训练值,将所述训练值和标签集输入至所述智能服务水平训练模型的损失函数中,计算出损失函数值,直至所述损失函数值小于阈值时,所述智能服务水平训练模型退出训练;
根据所述网络提问问题集和训练后的所述智能服务水平训练模型构建智能问答程序,利用所述智能问答程序对代理人提问问题,计算出所述代理人答案与标准答案的相似度,并对所述代理人答案进行打分以及给出建议。
7.如权利要求6所述的智能服务水平训练装置,其特征在于,所述预处理操作包括:
对所述网络提问问题集进行文本改写;
其中,所述文本改写包括分词处理和关键词提取,其中:
所述分词处理包括:
利用全切分法对所述网络提问问题集进行切分,获取多种分词方式;
通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述网络提问问题集的分词结果。
所述关键词提取包括:
计算所述分词结果中的任意两个词语Wi和Wj的依存关联度:
其中,len(Wi,Wj)表示词语Wi和Wj之间的依存路径长度,b是超参数;
计算词语Wi和Wj的引力:
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语Wi和Wj的词向量之间的欧式距离;
得到词语Wi和Wj之间的关联度为:
weight(Wi,Wj)=Dep(Wi,Wj)*fgrav(Wi,Wj)
建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
计算出词语Wi的重要度得分:
根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词作为主干词,并对所述主干词进行语义增强,得到改写后的文本。
8.如权利要求7所述的智能服务水平训练装置,其特征在于所述预处理操作还包括:
通过欧式公式计算出所述改写后的文本中数据对象之间的距离,根据聚类算法预设n个类簇,其中,第k个类簇的类簇中心为Centerk,计算出所述改写后的文本中的每一个数据到所述n个类簇中的每一个类簇中心的距离,并得到所述每一个数据在所述每一个类簇中心的特征;
利用分类器对所述特征进行训练,计算出所述每一个数据在所述类簇中心的概率大小,并通过误差平方和准则函数得到所述改写后的文本中每一个数据在类簇中心的聚类结果,从而对所述改写后的文本进行分群。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能服务水平训练程序,所述智能服务水平训练程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的智能服务水平训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910752391.5A CN110647914A (zh) | 2019-08-14 | 2019-08-14 | 智能服务水平训练方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910752391.5A CN110647914A (zh) | 2019-08-14 | 2019-08-14 | 智能服务水平训练方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110647914A true CN110647914A (zh) | 2020-01-03 |
Family
ID=69009567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910752391.5A Pending CN110647914A (zh) | 2019-08-14 | 2019-08-14 | 智能服务水平训练方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110647914A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113535924A (zh) * | 2021-07-27 | 2021-10-22 | 广东电网有限责任公司 | 一种电力信息分析装置、系统和方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368547A (zh) * | 2017-06-28 | 2017-11-21 | 西安交通大学 | 一种基于深度学习的智能医疗自动问答方法 |
WO2018137358A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 基于深度度量学习的目标精确检索方法 |
CN109189901A (zh) * | 2018-08-09 | 2019-01-11 | 北京中关村科金技术有限公司 | 一种智能客服系统中自动发现新分类以及对应语料的方法 |
WO2019041524A1 (zh) * | 2017-08-31 | 2019-03-07 | 平安科技(深圳)有限公司 | 聚类标签生成方法、电子设备及计算机可读存储介质 |
WO2019052261A1 (zh) * | 2017-09-18 | 2019-03-21 | 京东方科技集团股份有限公司 | 用于问答服务的方法、问答服务系统以及存储介质 |
CN110032632A (zh) * | 2019-04-04 | 2019-07-19 | 平安科技(深圳)有限公司 | 基于文本相似度的智能客服问答方法、装置及存储介质 |
-
2019
- 2019-08-14 CN CN201910752391.5A patent/CN110647914A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018137358A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 基于深度度量学习的目标精确检索方法 |
CN107368547A (zh) * | 2017-06-28 | 2017-11-21 | 西安交通大学 | 一种基于深度学习的智能医疗自动问答方法 |
WO2019041524A1 (zh) * | 2017-08-31 | 2019-03-07 | 平安科技(深圳)有限公司 | 聚类标签生成方法、电子设备及计算机可读存储介质 |
WO2019052261A1 (zh) * | 2017-09-18 | 2019-03-21 | 京东方科技集团股份有限公司 | 用于问答服务的方法、问答服务系统以及存储介质 |
CN109189901A (zh) * | 2018-08-09 | 2019-01-11 | 北京中关村科金技术有限公司 | 一种智能客服系统中自动发现新分类以及对应语料的方法 |
CN110032632A (zh) * | 2019-04-04 | 2019-07-19 | 平安科技(深圳)有限公司 | 基于文本相似度的智能客服问答方法、装置及存储介质 |
Non-Patent Citations (2)
Title |
---|
宋万里;卜磊;: "智能答疑系统的设计与实现", 电脑知识与技术, no. 36 * |
梁敬东;崔丙剑;姜海燕;沈毅;谢元澄;: "基于word2vec和LSTM的句子相似度计算及其在水稻FAQ问答系统中的应用", 南京农业大学学报, no. 05 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113535924A (zh) * | 2021-07-27 | 2021-10-22 | 广东电网有限责任公司 | 一种电力信息分析装置、系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112632385B (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN110502621B (zh) | 问答方法、问答装置、计算机设备及存储介质 | |
CN110347835B (zh) | 文本聚类方法、电子装置及存储介质 | |
CN111753060B (zh) | 信息检索方法、装置、设备及计算机可读存储介质 | |
CN110222160B (zh) | 智能语义文档推荐方法、装置及计算机可读存储介质 | |
AU2018383346B2 (en) | Domain-specific natural language understanding of customer intent in self-help | |
CN107783960B (zh) | 用于抽取信息的方法、装置和设备 | |
AU2018214675B2 (en) | Systems and methods for automatic semantic token tagging | |
CN106649818B (zh) | 应用搜索意图的识别方法、装置、应用搜索方法和服务器 | |
WO2020232861A1 (zh) | 命名实体识别方法、电子装置及存储介质 | |
CN110737758A (zh) | 用于生成模型的方法和装置 | |
US10997560B2 (en) | Systems and methods to improve job posting structure and presentation | |
CN108628834B (zh) | 一种基于句法依存关系的词语表示学习方法 | |
CN109086265B (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
CN114626097A (zh) | 脱敏方法、脱敏装置、电子设备及存储介质 | |
CN111368555B (zh) | 一种数据识别方法、装置、存储介质和电子设备 | |
CN113761190A (zh) | 文本识别方法、装置、计算机可读介质及电子设备 | |
CN112000778A (zh) | 一种基于语义识别的自然语言处理方法、装置和系统 | |
CN113722507B (zh) | 基于知识图谱的住院费用预测方法、装置及计算机设备 | |
CN113342944B (zh) | 一种语料泛化方法、装置、设备及存储介质 | |
CN110647914A (zh) | 智能服务水平训练方法、装置及计算机可读存储介质 | |
CN114491076B (zh) | 基于领域知识图谱的数据增强方法、装置、设备及介质 | |
CN113254473B (zh) | 一种获取气象服务知识的方法及装置 | |
CN115358817A (zh) | 基于社交数据的智能产品推荐方法、装置、设备及介质 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |