CN115577080A - 一种问题回复匹配方法、系统、服务器及存储介质 - Google Patents
一种问题回复匹配方法、系统、服务器及存储介质 Download PDFInfo
- Publication number
- CN115577080A CN115577080A CN202211093136.2A CN202211093136A CN115577080A CN 115577080 A CN115577080 A CN 115577080A CN 202211093136 A CN202211093136 A CN 202211093136A CN 115577080 A CN115577080 A CN 115577080A
- Authority
- CN
- China
- Prior art keywords
- user
- question
- matching
- words
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Abstract
本发明公开了一种问题回复匹配方法、系统、服务器及存储介质,该方法包括:获取用户类别和用户提问内容;对用户提问内容进行分词,获得问题分词;根据关键词库和自定义业务词典标识问题分词中的关键词;过滤问题分词中的干扰词;匹配与用户提问内容相似度最高的N个相似问题;匹配相似问题对应的标准问答对并返回用户。本发明结合了知识库和深度学习算法模型,能有效提升问题回复匹配的效率和精准度。
Description
技术领域
本发明涉及人工智能咨询技术领域,具体涉及一种问题回复匹配方法、系统、服务器及存储介质。
背景技术
随着互联网行业的发展,各大企业对于答复用户问题的需求大幅提高,然而人工客服存在着培训和管理成本高、员工工作效率低、工作重复度高、服务质量不稳定等问题,也给企业带来了很大的压力。
人工智能技术的普及促进了智能咨询机器人的发展,智能咨询机器人能够24小时在线为用户回复问题,提高了问题回复的效率,也为企业节省了大量的人工服务成本。但现有的智能咨询机器人也同样存在着许多问题。
1.由于智能咨询机器人的问题匹配多基于分词后计算相似度,在此过程中,不常见的专业词汇可能被错误分词,从而无法正确匹配与该专业词汇有关的问答对,这也导致了智能咨询机器人在面对不同业务场景时回复准确率低。
2.问题回复匹配过程中,智能咨询机器人没有面向用户进行分类,也没有设置用户的问题匹配权限。由于不同用户群体涉及同一关键词的提问内容可能关联着不同的问题或回复,使得智能咨询机器人提供的回复并不适合用户的实际情况,影响了问题回复的准确率,在数据安全性上也存在一定问题。
3.现有的语料知识库多基于数据服务器,语料数据的调用速度较慢,回复匹配系统的计算性能低。
综上所述,现有智能咨询机器人主要面临着问题回复匹配相关性差、精确度低、计算性能低的问题。
发明内容
针对上述现有技术,本发明提供一种问题回复匹配方法、系统、服务器及存储介质,针对多种用户自身情况和提问情况,提供最接近、最契合用户意图的问题回复匹配,大大提升了回复精确度和回复匹配效率。
为实现上述目的,本发明通过以下技术方案得以实现:
第一方面,提供一种问题回复匹配方法,包括以下步骤:
获取用户类别和用户提问内容;
对用户提问内容进行分词,获得问题分词;
根据关键词库和自定义业务词典标识问题分词中的关键词;
过滤问题分词中的干扰词;
匹配与用户提问内容相似度最高的N个相似问题;
匹配相似问题对应的标准问答对并返回用户。
在第一方面的可选实施例中,过滤问题分词中的干扰词包括以下步骤:
将问题分词与知识库中的敏感词库进行匹配;
若问题分词中存在敏感词,则向用户返回存在敏感词的提醒;
若问题分词中不存在敏感词,则将问题分词与知识库中的停用词和符号库进行匹配;
剔除问题分词中的停用词和符号。
在第一方面的可选实施例中,匹配与用户提问内容相似度最高的N个相似问题包括以下步骤:
识别问题分词中是否包括关键词标识;
当识别到关键词标识时,通过搜索引擎根据关键词在知识库中搜索与用户提问内容相似度最高的前N个相似问题;
当未识别到关键词标识时,将问题分词通过算法模型转换为向量;
通过Pysparnn从知识库的相似问题索引文件中召回与用户提问内容相似度排名前N的相似问题;
通过孪生神经网络计算相似问题与用户输入内容的相似度,对相似问题按相似度进行降序排列;
输出相似度达到预设阈值的相似问题;
所述预设阈值由预先设置、人工调整确定。
具体地,所述相似问题索引文件在用户提问前生成,包括以下步骤:
当相似问题以字、词形式存储时,输入BM25字、词模型和Tf-idf字、词模型中转化为字、词维度的向量;
当相似问题以文本形式存储时,输入fasttext模型转化为文本维度的向量;
将字、词、文本维度的向量输入Sentence2Vector模型,获取字、词、文本维度的索引文件;
将字、词、文本维度的索引文件输入神经网络中进行评估和排序,输出最优的相似问题索引文件。
优选地,通过神经网络对字、词、文本维度的索引文件进行加权计算,输出加权后的相似问题索引文件。
进一步地,在用户提问前,将知识库中语料信息分字、分词、分文本聚类统计存储,相似问题以字、词、文本形式输入算法模型。
进一步地,在构建孪生神经网络对召回的相似问题进行排序的过程中,使用Attention机制、Pooling池化、损失度计算优化相似度计算过程。
在第一方面的可选实施例中,所述匹配相似问题对应的标准问答对并返回用户包括以下步骤:
匹配相似问题对应的标准问答对;
识别标准问答对的类别标识;
向用户优先返回包含该用户类别标识的标准问答对。
基于上述方案,优选地,所述向用户优先返回包含该用户类别标识的标准问答对还包括以下步骤:
在匹配到的标准问题中剔除包含其他用户类别标识的标准问答对,优先向用户返回包含该用户类别标识的标准问答对,再返回不包含用户类别标识的公共标准问答对。
在第一方面的可选实施例中,优选地,当未获取到用户提问内容时,根据用户类别匹配该类别热门标准问答对并返回用户。
第二方面,提供一种问题匹配系统,包括:
知识库模块,包括数据服务器和Nosql服务器,存储匹配所需的数据供其他模块调用;
文本处理模块,对用户提问内容进行分词,对问题分词进行处理;
深度学习模块,通过问题分词匹配与用户提问内容相似度最高的N个相似问题;
用户交互模块,获取用户操作指令和输入内容,向用户返回匹配结果和指引;
问答对匹配模块,对标准问答对、热门标准问答对进行匹配、分类。
在第二方面的可选实施例中,所述匹配所需的数据包括:用户类别、相似问题、关键词、敏感词、停用词和符号、相似度阈值、相似问题和标准问答对的关系、标准问答对和用户类别标识的关系、热门标准问答对和用户类别标识的关系等。
在第二方面的可选实施例中,文本处理模块对用户提问内容进行分词,筛选用户提问内容中的敏感词,过滤用户提问内容中的停用词和符号。
在第二方面的可选实施例中,用户交互模块中包括用户终端,所述用户终端为PC端、APP、手机端、智能终端中的一种。
在第二方面的可选实施例中,深度学习模块的计算内容包括:引擎搜索、Pysparnn召回、文本匹配、Attention机制、文本序列化、孪生神经网络、用户类别筛选、相似度过滤。
在第二方面的可选实施例中,知识库模块包括数据服务器和Nosql服务器,知识库数据存储在数据服务器中,同时更新到NoSql服务器。
第三方面,提供一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行计算机程序时实现如前述第一方面所述问题回复匹配方法。
第四方面,提供一种问题回复匹配计算机可读存储介质,存储有计算机程序,其特征在于,当计算机程序被处理器执行时,实现如前述第一方面所述问题回复匹配方法。
本申请提供的技术方案带来的有益效果是:
1.本发明实施例中对于用户提问内容进行了精准的语义识别和回复匹配,在语料处理的过程中,面对不同的应用场景设置自定义业务词典,实现正确识别本应用场景的专业词汇和业务关键词,有效提高了问题匹配的效率和准确度。
2.本发明实施例中还针对用户类别对标准问答对进行分类,优先将包含本用户类别的标准问答对返回给用户,细化了回复匹配的精度。在特定的业务场景中,本发明可通过用户类别标识针对不同用户群体设置访问权限,用户只能获得与本用户类别有关的问题回复和公共问题回复,这也大大提高了数据安全性。
3.本发明实施例的知识库模块采取了数据服务器和Nosql服务器并用的模式,数据服务器用于数据存储和日常维护,提高数据稳定性;Nosql服务器供其他模块数据调用,内存计算性能更优,从而提升了匹配速率。
本申请附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
图1是本发明一实施例提供的一种问题回复匹配方法的流程图;
图2是本发明一实施例提供的一种一种问题回复匹配方法中过滤干扰词步骤的流程图;
图3是本发明一实施例提供的一种问题回复匹配方法中匹配相似问题步骤的流程图;
图4是本发明一实施例提供的一种问题回复匹配方法中相似问题索引文件生成的流程图;
图5是本发明一实施例提供的一种员工咨询问题回复匹配方法的流程图;
图6是本发明一实施例提供的一种问题回复匹配系统结构图;
图7是本发明一实施例提供的一种问题回复匹配系统示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,提供一种问题回复匹配方法,包括如下步骤:。
S1:获取用户类别和用户提问内容;
具体地,用户使用PC端、APP、手机端等智能终端通过互联网与服务器连接,以输入问题的形式提问,根据用户登录信息和输入内容,获取用户类别和用户提问内容。
需要说明的是,输入方式为键盘输入、语音输入、手写输入、图像识别输入等的一种或多种。
S2:对用户提问内容进行分词,获得问题分词;
具体地,使用中文分词工具将用户提问内容切分成数个单独的词,所述中文分词工具为jieba、SnowNLP、THULAC、NLPIR、StanfordNLP、HanNLP中的一种。
S3:标识问题分词中的关键词;
具体地,关键词存储在知识库中的关键词库和自定义业务词典中,将问题分词与关键词库和自定义业务词典进行匹配,若问题分词中存在关键词,则对识别到的关键词进行标识。
需要说明的是,关键词库是预先设置的,存储问题回复匹配涉及的常用词汇、专业词汇、业务词汇。自定义业务词典可以由维护人员面向不同的业务场景和实际需求进行修改和更新,从而提高回复匹配的准确率。
S4:过滤问题分词中的干扰词;
具体地,这一步骤用于提问文本的处理,如图2所示,包括以下步骤:
S4.1:将问题分词与知识库中的敏感词库进行匹配,识别问题分词中是否包括敏感词;
S4.2:若问题分词中存在敏感词,则向用户返回存在敏感词的提醒;若问题分词中不存在敏感词,则继续执行S4.3;
S4.3:将问题分词与知识库中的停用词和符号库进行匹配,识别问题分词中是否包括停用词和符号;
S4.4:若问题分词中存在停用词和符号,则剔除问题分词中的停用词和符号;若问题分词中不存在停用词和符号,则无需剔除。
进一步地,S4.2中向用户返回存在敏感词的提示后,需要等待用户再次提问后重新执行S1。
需要说明的是,敏感词通常为带有敏感倾向、暴力倾向等的不文明用词,停用词通常为提问内容中出现频率高但没有实际意义的词语,筛选敏感词、过滤停用词和符号不会对语义识别造成影响,同时也能提高计算效率。
S5:匹配与用户提问内容相似度最高的N个相似问题;
具体地,如图3所示,匹配相似问题包括以下步骤:
S5.1:识别问题分词中是否包括关键词标识;
所述关键词标识来自S3中标识问题分词中与关键词库和自定义业务词典匹配到的关键词。
S5.2:当识别到关键词标识时,通过elasticsearch引擎根据关键词在知识库中搜索与用户提问内容相似度最高的前N个相似问题;
具体地,elasticsearch是一种实时分析的分布式搜索与数据分析引擎,具有高扩展、高并发的特点,通过分词控制器对提交到elasticsearch数据库中的语料数据进行分词,分词结果与权重共同存储于数据中,当进行搜索时,会根据权重对分词结果进行打分、排名后返回用户。使用elasticsearch引擎搜索获取相似问题可以提高检索的效率,但相较于召回相似问题精准度有所降低。
S5.3:当未识别到关键词标识时,将问题分词通过word2vec模型转换为词向量;
具体地,word2vec模型可以将词转化为词向量,包含CBOW和skip-gram算法。CBOW模型的原理在于用上下文来预测中心词,一般根据中心词前后连续的n个词来计算目标词的出现概率。skip-gram模型的原理在于根据在每一次迭代中选取的中心词来预测上下文。通过word2vec可以将用户提问内容的问题分词转化为词向量,用于后续Pysparnn召回相似问题。
S5.4:通过Pysparnn从知识库中召回相似度排名前N的相似问题;
具体地,Pysparnn使用的是一种簇修剪的技术,对数据进行聚类,后续在有限个类别中进行数据的搜索,根据计算的相似度返回结果。将用户提问内容的词向量与相似问题索引文件进行相似度计算,召回相似度排名前N的相似问题。
S5.5:通过孪生神经网络计算相似问题与用户输入内容的相似度,对相似问题按相似度进行降序排列;
具体地,孪生神经网络就是有两个共享权值的网络的组成,通常需要输入两个句子,输出相似度的值。将用户提问内容与召回的相似问题输入孪生神经网络,向量化后通过LSTM网络处理,经过exp计算出两者的相似度,输出用户提问内容与相似问题的相似度。按相似度对召回的相似问题进行降序排列。
进一步地,在构建孪生神经网络对召回的相似问题进行排序的过程中,使用Attention机制、Pooling池化、损失度计算优化相似度计算过程,提高相似度计算的精准性。
具体地,Pooling池化是一种降采样的技术,用来减少特征的数量。增加Attention机制是为了赋予句子中每个词不同的权重,增加模型的灵活性,在孪生神经网络中,通常先获取attention_weight,把其中输入一个句子的output理解为另一个句子的encoder的output,再将attention_weight和encoder_output相乘。在孪生神经网络中使用对比损失作为损失函数计算损失度,从而对模型进行评估和优化。
S5.6:输出相似度达到预设阈值的相似问题;
具体地,所述预设阈值由预先设置、人工调整确定,删除未达到预设阈值的相似问题,输出相似度达到预设阈值的相似问题。
进一步地,若无达到预设阈值的相似问题,则向用户返回无匹配内容的提醒。
S6:匹配相似问题对应的标准问答对并返回用户。
具体地,匹配标准问答对包括以下步骤:
S6.1:根据召回相似度前N个相似问题,在知识库中逐一匹配每个相似问题对应的标准问答对;
S6.2:识别标准问答对的类别标识;
S6.3:根据类别标识将标准问答对分为包含和不包含两类;
S6.4:先向用户优先返回包含该用户类别标识的标准问答对,再返回不包含该用户类别标识的标准问答对。
实施例二
基于实施例一,如图1、图3、图4所示,提供一种相似问题生成索引文件的方法,包括如下步骤:
S001:识别相似问题的形式;
具体地,在用户提问前,将知识库中语料信息分字、分词、分文本聚类统计存储,相似问题以字、词、文本形式输入算法模型。
S002:当相似问题以字、词形式存储时,输入BM25字、词模型和Tf-idf字、词模型中转化为字、词维度的向量;
具体地,Tf-idf字、词模型是基于Tf-idf算法将字、词转换为向量的模型。Tf-idf算法通过词频Tf和逆文档频率之积Idf的数值来表示一个词,公式如下:
Tf-idf=Tf*idf
相较于传统的词袋模型,Tf-idf字、词模型引入了词的重要性作为指标,这也使得Tf-idf字、词模型构建的向量更为准确。
BM25字、词模型基于Tf-idf字、词模型进行了优化,公式如下:
其中,k和b是两个可调参数,k>0,默认值为1.2;b∈[0.1],默认值为0.75;dl为包含该字、词的文档的长度,avgdl为所有文档的平均长度。
S003:当相似问题以文本形式存储时,输入fasttext模型转化为文本维度的向量;
fasttext是一种词向量与文本分类工具,架构与word2Vec中的CBOW架构较为类似,但fasttext模型不是预测中间词而是预测文本分类,还引入了N-gram特征进行文本分类。fasttext模型包含输入层、隐藏层和输出层。向fastText模型中输入文本,输入层通过输入词的序列向量以及相关特征来共同表示单个文本;隐藏层是对多个词向量的叠加平均;输出层是输出文本对应分类的概率。此外,FastText模型还利用了一个分层分类器,层次Softmax在哈弗曼编码的基础上对标签进行编码,缩小了模型预测目标的数量,减少训练的复杂度,提高计算效率。
S004:将字、词、文本维度的向量输入Sentence2Vector模型,获取字、词、文本维度的索引文件;
具体地,将BM25字、词模型、Tf-idf字、词模型或fasttext模型获得的相似问题字、词、文本向量输入到Sentence2Vector模型中,Sentence2Vector模型是一种无监督的,基于词向量计算句子向量的模型,对句子中的所有词的词向量进行加权平均,再使用PCA/SVD对向量值进行修改,获得输入信息的句子向量。相较于将所有词的词向量平均来表示句子向量的方式,Sentence2Vector的计算效果更佳。
S005:将字、词、文本维度的索引文件输入神经网络中进行评估和排序,输出最优的相似问题索引文件。
优选地,通过神经网络对字、词、文本维度的索引文件进行加权计算,输出加权后的相似问题索引文件。
具体地,神经网络中包括Seq2Seq模型、Dnnsort算法和孪生神经网络。Seq2Seq包括编码器(encoder)和解码器(decoder),编码器用于理解输入内容,解码器对向量进行解码、输出。Dnnsort算法是深度神经网络中的排序算法,结合作为底层逻辑的孪生神经网络可以实现对字、词、句子三个维度的向量进行相似度评估、排序、加权计算,最终输出最优的索引文件或加权后的索引文件。
优选地,S001—S004可作为实施例1中的S5.3的代替方案,问题分词可通过S001—S004中所述步骤转换为向量。
实施例三
本实施例提供一种企业员工咨询回复匹配方法,该方法运用于企业管理中,代替人事、财务回复员工的各类咨询问题,如考勤、薪酬、差旅等,面向用户为企业员工,用户类别为员工所属部门。如图5所示,所述企业员工咨询回复匹配方法包括如下步骤:
将匹配所需的数据加载到内存知识库中;
具体地,所述匹配所需的数据包括员工部门、相似问题、关键词、敏感词、停用词和符号、相似度阈值、相似问题与标准问答对的关系、标准问答对及员工部门标识、热门标准问答对及员工部门标识关系。
获取用户登录信息,进行问题指引;
具体地,所述问题指引包括以下步骤:
通过用户登录信息,获得用户部门;
从内存知识库中获取该部门的热门标准问题并返回用户;
若用户选择热门标准问题之一,则向用户返回相应问题回复;
若用户未选择热门标准问题,则继续等待用户提问。
用户输入提问内容,获取用户提问内容;
对用户提问内容进行分词,获得问题分词;
判断问题分词中是否包含关键词;
具体地,将问题分词与知识库中的关键词库和自定义业务词典进行匹配,判断问题分词中是否包含关键词库和自定义业务词典中的关键词。
若问题分词中不包含关键词,进行提问匹配;
具体地,所述提问匹配包括以下步骤:
过滤问题分词中的敏感词;
剔除问题分词中的停用词和符号;
将问题分词输入算法模型中转换为词向量;
通过Pysparnn从知识库的相似问题索引文件中召回与用户提问内容相似度排名前N的相似问题;
匹配相似问题对应的标准问题并返回用户;
若用户选择标准问题,获取用户选择的标准问题,返回相应问题的回复;
若用户未选择标准问题,则提示用户重新输入提问内容,重新进行问题联想或提问匹配。
若问题分词中包含关键词,则根据关键词进行问题联想。
具体地,所述问题联想包括以下步骤:
标识问题分词中的关键词;
通过elasticsearch引擎根据关键词在知识库中搜索与用户提问内容相似度最高的前N个相似问题;
匹配相似问题对应的标准问题并返回用户;
若用户选择标准问题,获取用户选择的标准问题,返回标准问题的回复;
若用户未选择标准问题,则删去问题分词中的关键词标识,进行提问匹配。
进一步地,为实现各部门间的员工权限管理,所述匹配相似问题对应的标准问题还包括以下步骤:
识别标准问题的部门标识;
向用户返回包含该员工部门标识的标准问题;
向用户返回不包含部门标识的公共标准问题。
实施例四
本实施例提供一种问题回复匹配系统,如图6所示,所述问题回复匹配系统包括:
用户交互模块1,获取用户操作指令和输入内容,向用户返回匹配结果和指引;
具体地,用户交互模块1中包括用户终端,所述用户终端为PC端、APP、手机端、智能终端等的任一种。
文本处理模块2,对用户提问内容进行分词,对问题分词进行处理;
具体地,所述对问题分词进行处理包括筛选用户提问内容中的敏感词、过滤用户提问内容中的停用词和符号。
知识库模块3,包括数据服务器和Nosql服务器,存储匹配所需的数据供其他模块调用;
具体地,所述匹配所需的数据包括:用户类别、相似问题、关键词、敏感词、停用词和符号、相似度阈值、相似问题和标准问答对的关系、标准问答对和用户类别标识的关系、热门标准问答对和用户类别标识的关系等。
深度学习模块4,通过问题分词匹配与用户提问内容相似度最高的N个相似问题;
具体地,深度学习模块4的计算内容包括:elasticsearch引擎搜索、Pysparnn召回、文本匹配、Attention机制、文本序列化、孪生神经网络、用户类别筛选、相似度过滤。
问答对匹配模块5,对标准问答对、热门标准问答对进行匹配、分类。
具体地,问答对匹配模块5为深度学习模块4输出的相似问题匹配标准问答对或根据用户类别匹配热门标准问答对,依据部门标识对标准问答对和热门标准问答对进行分类。
如图7所示,本实施例提供的一种问题回复匹配系统可以通过以下设备实现:
用户交互模块1包括用户终端6和web服务器7,其中用户终端6可以是PC端、APP、手机端、智能终端中的一种。
用户终端6将用户类别、用户提问内容通过web服务器7传至应用服务器8。文本处理模块2、深度学习模块4、问答对匹配模块5的业务运行均在应用服务器8中完成。
知识库模块3通过数据库服务器9和Nosql服务器10构建完成,存储匹配所需的数据。数据库服务器9用于日常存储数据,方便运营人员维护数据。数据库服务器9中的数据更新到Nosql服务器10,以供其他模块调用数据进行计算,由于Nosql服务器10在内存中,所以调用速度更快,提高了匹配的效率。以上所有服务器及移动终端均通过网络连接。
为实现上述实施例,本发明实施例还提供一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,当计算机程序被处理器执行时,实现如前述实施例所述问题回复匹配方法。
为实现上述实施例,本发明实施例还提供一种计算机可读存储介质,存储有计算机程序,其特征在于,当计算机程序被处理器执行时,实现如前述实施例所述问题回复匹配方法。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种问题回复匹配方法,其特征在于,包括以下步骤:
获取用户类别和用户提问内容;
对用户提问内容进行分词,获得问题分词;
根据关键词库和自定义业务词典标识问题分词中的关键词;
过滤问题分词中的干扰词;
匹配与用户提问内容相似度最高的N个相似问题;
匹配相似问题对应的标准问答对并返回用户。
2.根据权利要求1所述的方法,其特征在于,所述过滤问题分词中的干扰词包括以下步骤:
将问题分词与知识库中的敏感词库进行匹配;
若问题分词中存在敏感词,则向用户返回存在敏感词的提醒;
若问题分词中不存在敏感词,则将问题分词与知识库中的停用词和符号库进行匹配;
剔除问题分词中的停用词和符号。
3.根据权利要求1所述的方法,其特征在于,所述匹配与用户提问内容相似度最高的N个相似问题包括以下步骤:
识别问题分词中是否包括关键词标识;
当识别到关键词标识时,通过搜索引擎根据关键词在知识库中搜索与用户提问内容相似度最高的前N个相似问题;
当未识别到关键词标识时,将问题分词通过算法模型转换为向量;
通过Pysparnn从知识库的相似问题索引文件中召回与用户提问内容相似度排名前N的相似问题;
通过孪生神经网络计算相似问题与用户输入内容的相似度,对相似问题按相似度进行降序排列;
输出相似度达到预设阈值的相似问题;
所述预设阈值由预先设置、人工调整确定。
4.根据权利要求3所述的方法,其特征在于,所述相似问题索引文件的生成包括以下步骤:
当相似问题以字、词形式存储时,输入BM25字、词模型和Tf-idf字、词模型中转化为字、词维度的向量;
当相似问题以文本形式存储时,输入fasttext模型转化为文本维度的向量;
将字、词、文本维度的向量输入Sentence2Vector模型,获取字、词、文本维度的索引文件;
将字、词、文本的维度索引文件输入神经网络中进行排序和优化,输出处理后的相似问题索引文件。
5.根据权利要求1所述的方法,其特征在于,所述匹配相似问题对应的标准问答对并返回用户包括以下步骤:
匹配相似问题对应的标准问答对;
识别标准问答对的类别标识;
向用户优先返回包含该用户类别标识的标准问答对。
6.根据权利要求1所述的方法,其特征在于还包括以下步骤:
当未获取到用户提问内容时,根据用户类别匹配该类别热门标准问答对并返回用户。
7.一种问题回复匹配系统,其特征在于,包括:
知识库模块,包括数据服务器和Nosql服务器,存储匹配所需的数据供其他模块调用;
文本处理模块,对用户提问内容进行分词,对问题分词进行处理;
深度学习模块,通过问题分词匹配与用户提问内容相似度最高的N个相似问题;
用户交互模块,获取用户操作指令和输入内容,向用户返回匹配结果和指引;
问答对匹配模块,对标准问答对、热门标准问答对进行匹配、分类。
8.根据权利要求7所述的系统,其特征在于所述匹配所需的数据包括:用户类别、相似问题、关键词、敏感词、停用词和符号、相似度阈值、相似问题和标准问答对的关系、标准问答对和用户类别标识的关系、热门标准问答对和用户类别标识的关系等。
9.一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行计算机程序时实现如权利要求1-6任一项所述方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,当计算机程序被处理器执行时,实现如权利要求1-6任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211093136.2A CN115577080A (zh) | 2022-09-08 | 2022-09-08 | 一种问题回复匹配方法、系统、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211093136.2A CN115577080A (zh) | 2022-09-08 | 2022-09-08 | 一种问题回复匹配方法、系统、服务器及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115577080A true CN115577080A (zh) | 2023-01-06 |
Family
ID=84580673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211093136.2A Pending CN115577080A (zh) | 2022-09-08 | 2022-09-08 | 一种问题回复匹配方法、系统、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115577080A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117494726A (zh) * | 2023-12-29 | 2024-02-02 | 成都航空职业技术学院 | 一种情报关键词提取方法 |
-
2022
- 2022-09-08 CN CN202211093136.2A patent/CN115577080A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117494726A (zh) * | 2023-12-29 | 2024-02-02 | 成都航空职业技术学院 | 一种情报关键词提取方法 |
CN117494726B (zh) * | 2023-12-29 | 2024-04-12 | 成都航空职业技术学院 | 一种情报关键词提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108052583B (zh) | 电商本体构建方法 | |
CN109635273B (zh) | 文本关键词提取方法、装置、设备及存储介质 | |
CN112231447B (zh) | 一种中文文档事件抽取的方法和系统 | |
CN108038492A (zh) | 一种基于深度学习的感性词向量及情感分类方法 | |
CN112800170A (zh) | 问题的匹配方法及装置、问题的回复方法及装置 | |
CN112035599B (zh) | 基于垂直搜索的查询方法、装置、计算机设备及存储介质 | |
CN112463944B (zh) | 一种基于多模型融合的检索式智能问答方法及装置 | |
CN112307164A (zh) | 信息推荐方法、装置、计算机设备和存储介质 | |
CN111368096A (zh) | 基于知识图谱的信息分析方法、装置、设备和存储介质 | |
CN116150335A (zh) | 一种军事场景下文本语义检索方法 | |
CN114611491A (zh) | 基于文本挖掘技术的智慧政务舆情分析研究方法 | |
CN115952292B (zh) | 多标签分类方法、装置及计算机可读介质 | |
CN112988970A (zh) | 一种服务于智能问答系统的文本匹配算法 | |
CN113342958A (zh) | 问答匹配方法、文本匹配模型的训练方法和相关设备 | |
CN113672718A (zh) | 基于特征匹配和领域自适应的对话意图识别方法及系统 | |
Celikyilmaz et al. | A graph-based semi-supervised learning for question-answering | |
CN114491079A (zh) | 知识图谱构建和查询方法、装置、设备和介质 | |
CN114281972A (zh) | 基于主体对象跟踪和认知推理的对话控制方法、系统存储介质和服务器 | |
CN115577080A (zh) | 一种问题回复匹配方法、系统、服务器及存储介质 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN115905187B (zh) | 一种面向云计算工程技术人员认证的智能化命题系统 | |
CN116452353A (zh) | 一种财务数据管理方法及系统 | |
CN116756303A (zh) | 一种多主题文本摘要自动生成方法及系统 | |
CN113095073B (zh) | 语料标签生成方法、装置、计算机设备和存储介质 | |
CN115203206A (zh) | 数据内容搜索方法、装置、计算机设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |