CN117891917A - 客服智能问答实现方法、装置、设备及存储介质 - Google Patents

客服智能问答实现方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117891917A
CN117891917A CN202311868260.6A CN202311868260A CN117891917A CN 117891917 A CN117891917 A CN 117891917A CN 202311868260 A CN202311868260 A CN 202311868260A CN 117891917 A CN117891917 A CN 117891917A
Authority
CN
China
Prior art keywords
question
customer service
answer
text
answering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311868260.6A
Other languages
English (en)
Inventor
苏朋杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Flash Scissor Intelligent Technology Co ltd
Original Assignee
Shenzhen Flash Scissor Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Flash Scissor Intelligent Technology Co ltd filed Critical Shenzhen Flash Scissor Intelligent Technology Co ltd
Priority to CN202311868260.6A priority Critical patent/CN117891917A/zh
Publication of CN117891917A publication Critical patent/CN117891917A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Medical Informatics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及计算机领域,公开了一种客服智能问答实现方法、装置、设备及存储介质。该方法包括:接收客服问答实现请求,根据客服问答实现请求,获取客服回答文本;根据客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,客服问答文本被处理为一问一答的形式;通过预设对话生成模型,将客服问答文本作为知识库接入到大语言模型;获取输入的提问,通过大语言模型,从知识库中搜索与所述提问匹配的答案,输出所述匹配的答案。在本发明实施例中,能通过大语言模型,将客服问答文本处理为一问一答的形式,使输入的提问不仅会匹配到生成的问题,还会匹配到客服回答文本中的内容,从而提高客服智能问答准确率。

Description

客服智能问答实现方法、装置、设备及存储介质
技术领域
本发明涉及计算机领域,尤其涉及一种客服智能问答实现方法、装置、设备及存储介质。
背景技术
传统的智能客服问答系统,需要收集大量的客户提问,再去根据提问匹配问题,这一个步骤非常消耗时间和人力。即便如此,当人工搭建的智能客服问答系统搭建好后,用户提出的问题和题库(知识库)的问题不完全一样,也会回答不了。比如“为啥我总是制作视频失败呢”,这个问题的回答是“建议您替换一张类似证件照的正脸照片”。但如果用户提问“为什么显示做视频失败?”,那就匹配不到回答。
常规的LLM(Large Language Model,大语言模型)作为知识库使用的时候,根据用户的提问,LLM会根据“问题”和“原始文本”的相似度,去原始文本中寻找回答。这样会带来很多问题,比如,“问题”和“原始文本”的相似度不高,LLM会找到错误的原始文本,进而得到错误的回答内容。或者原始文本中有两个相似的内容的时候,LLM也会经常匹配错“原始文本”,进而回答错误。所以基于现有LLM模型的智能问答准确率低。
发明内容
本发明的主要目的在于解决客服智能问答准确率低的技术问题。
本发明第一方面提供了一种客服智能问答实现方法,所述客服智能问答实现方法包括:
接收客服问答实现请求,根据所述客服问答实现请求,获取客服回答文本,所述客服回答文本中包括多段内容;
根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,所述客服问答文本被处理为一问一答的形式;
通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型;
获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案。
可选的,在本发明第一方面的第一种实现方式中,所述知识库中包括多个问题-答案对;
所述获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案包括:
获取输入的提问,将所述输入的提问转化为文本向量;
根据所述文本向量,通过所述大语言模型,从所述多个问题-答案对中搜索匹配的问题-答案对;
输出所述匹配的问题-答案对中的答案。
可选的,在本发明第一方面的第二种实现方式中,所述根据所述文本向量,通过所述大语言模型,从所述多个问题-答案对中搜索匹配的问题-答案对包括:
根据所述文本向量,通过所述大语言模型,计算得到所述文本向量与所有问题-答案对的相似度;
根据所述文本向量与所有问题-答案对的相似度,搜索与所述文本向量最匹配的问题-答案对。
可选的,在本发明第一方面的第三种实现方式中,所述获取输入的提问,将所述输入的提问转化为文本向量包括:
获取输入的提问,并通过所述大语言模型,对所述输入的提问进行预处理,以纠正所述提问中的语法错误;
提取预处理的提问中的关键点,判断所述输入的提问是否正确;
若是,则将预处理的提问转化为文本向量。
可选的,在本发明第一方面的第四种实现方式中,所述根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本包括:
获取输入的提示词,所述提示词用于指示为每段内容生成问题的个数、以及问题输出的形式;
根据所述提示词及所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本;
将所述客服问答文本处理为一问一答的形式。
可选的,在本发明第一方面的第五种实现方式中,所述通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型包括:
通过预设对话生成模型,构建知识库问答应用;
通过FastChat框架,将所述大语言模型接入所述知识库问答应用,并将所述客服问答文本作为知识库接入到所述大语言模型;
在所述知识库问答应用中输入提问。
可选的,在本发明第一方面的第六种实现方式中,客服智能问答实现方法还包括:
获取训练集,所述训练集包括提问样本与真实回答;
对初始对话生成模型进行训练,将所述提问样本输入所述初始对话生成模型,生成预测回答;
比较所述预测回答与所述真实回答之间的差异,更新所述初始对话生成模型的参数,获取预设对话生成模型。
本发明第二方面提供了一种客服智能问答实现设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述客服智能问答实现设备执行上述的客服智能问答实现方法。
本发明的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的客服智能问答实现方法。
在本发明实施例中接收客服问答实现请求,根据所述客服问答实现请求,获取客服回答文本,所述客服回答文本中包括多段内容;根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,所述客服问答文本被处理为一问一答的形式;通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型;获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案。本发明中,通过大语言模型,为每段内容生成对应的一个或多个问题,然后通过预设对话生成模型,将客服问答文本作为知识库接入到大语言模型,根据输入的提问,从知识库中搜索匹配的答案,能通过大语言模型,将客服问答文本处理为一问一答的形式,这样输入的提问不仅会匹配到生成的问题,还会匹配到客服回答文本中的内容,从而提高客服智能问答准确率。
附图说明
图1为本发明实施例中客服智能问答实现方法的一个实施例示意图;
图2为本发明实施例中客服智能问答实现装置的一个实施例示意图;
图3为本发明实施例中客服智能问答实现设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种客服智能问答实现方法、装置、设备及存储介质。
下面将参照附图更详细地描述本发明公开的实施例。虽然附图中显示了本发明公开的某些实施例,然而应当理解的是,本发明公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本发明公开的附图及实施例仅用于示例性作用,并非用于限制本发明公开的保护范围。
在本发明公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中客服智能问答实现方法的一个实施例包括:
S100,接收客服问答实现请求,根据客服问答实现请求,获取客服回答文本。
在本实施例中,用户在终端输入客服回答文本,生成客服问答实现请求,并将客服问答实现请求发送到服务器,服务器接收客服问答实现请求,获取客服回答文本,客服回答文本中包括多段内容,每段内容为客服问答中的回答内容,其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑等。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
S200,根据客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本。
在本实施例中,使用大语言模型(LLM)将文本变成一问一答的形式。其中,LLM模型是一个通过大量文本数据训练的深度学习模型。LLM模型可以生成自然语言文本,也能够理解语言文本含义。LLM模型可以用于处理多种自然语言任务,例如问答以及对话等。在LLM的提示词中规定要几个问题,让LLM对客服回答文本中的每段内容反复提问,为每段内容生成对应的一个或多个问题,例如,可以让LLM针对每段内容提出了三个问题,也可以提出更多。通过每段回答内容及其对应的问题,生成得到客服问答文本。
S300,通过预设对话生成模型,将客服问答文本作为知识库接入到大语言模型。
在本实施例中,使用预设对话生成模型(Langchain-Chatchat)构建知识库问答应用,具体地,LangChain-Chatchat是基于Langchain与ChatGLM等大语言模型的本地知识库问答应用实现。目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。Langchain-Chatchat可以让很多大语言模型(LLM)接入文本知识库,本发明使用的LLM是通问千义模型(Qwen)。
400,获取输入的提问,通过大语言模型,从知识库中搜索与提问匹配的答案,输出匹配的答案。
在本实施例中,在知识库问答应用中,用户输入提问,应用读取存储在本地的知识库文件,加载文件内容将文本向量化,同时将用户的问题转化为向量,应使用与文本向量化相同的方法,以便在相同的空间中进行比较;再通过大语言模型可以在知识库中搜索与提问最匹配的答案,将匹配的答案显示在知识库问答应用界面。
在本发明第一方面一种可选的实施方式中,知识库中包括多个问题-答案对;获取输入的提问,通过所述大语言模型,从知识库中搜索与提问匹配的答案,输出匹配的答案包括:
获取输入的提问,将输入的提问转化为文本向量;根据文本向量,通过大语言模型,从多个问题-答案对中搜索匹配的问题-答案对;输出匹配的问题-答案对中的答案。
在本实施例中,根据用户提问,去匹配“问题+内容”最相似的数据。如果不做处理,那么就只会匹配“内容”最相似的数据。“问题+内容”的模型更准确。这是因为“用户提问”和“原始文本”的相似度不高,LLM会找到错误的原始文本,进而得到错误的回答内容。或者原始文本中有两个相似的内容的时候,LLM也会经常匹配错“原始文本”,进而回答错误。为了解决这一问题,将原始文本,即客服回答文本进一步处理成“一问一答”的形式,即“问题+答案”的形式,那么知识库中包括多个问题-答案对。首先将输入的提问转化为文本向量,通过大语言模型,从多个问题-答案对中搜索匹配的问题-答案对,使得在匹配时,不仅匹配问题,还匹配答案,以提高问答的准确率。
在本发明第一方面一种可选的实施方式中,根据文本向量,通过大语言模型,从多个问题-答案对中搜索匹配的问题-答案对包括:
根据文本向量,通过大语言模型,计算得到文本向量与所有问题-答案对的相似度;根据文本向量与所有问题-答案对的相似度,搜索与文本向量最匹配的问题-答案对。
在本实施例中,通过大语言模型,计算得到文本向量与所有问题-答案对的相似度,找到与文本向量最相似的问题-答案对,可选地,可以通过计算余弦相似度、欧氏距离等方式得到文本向量与所有问题-答案对的相似度,输出与文本向量最匹配的问题-答案对中的答案。
在本发明第一方面一种可选的实施方式中,获取输入的提问,将输入的提问转化为文本向量包括:
获取输入的提问,并通过大语言模型,对输入的提问进行预处理,以纠正提问中的语法错误;提取预处理的提问中的关键点,判断输入的提问是否正确;若是,则将预处理的提问转化为文本向量。
在本实施例中,通过大语言模型,对用户输入的提问进行预处理,纠正语法错误,提取关键点,判断输入的提问是否正确,若正确,则将预处理的提问转化为文本向量,或者通过交互方式引导用户补充问题足够多的信息。此外,可以对本地搜索系统的原始答案进行二次处理。比如内容过多,可以进行概括,也可以进行简单推理。
在本发明第一方面一种可选的实施方式中,根据客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本包括:
获取输入的提示词,提示词用于指示为每段内容生成问题的个数、以及问题输出的形式;根据提示词及客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本;将客服问答文本处理为一问一答的形式。
在本实施例中,获取用户输入的提示词,用于指示为每段内容生成问题的个数、以及问题输出的形式,例如,用户输入的提示词是为每句话提出3个问题及其对应的答案,答案需要尽量的详细和准确,并且带有答案的分析。将其做成一个Q&A列表,每一行只允许包括一个问题和一个答案。用Q表示问题,用A表示答案。每一条问答之后进行换行,并空出一行来。
客服回答文本中一段内容如下:您好,在个人中心点击“绑定账号”,保存弹出的二维码,打开APP“扫一扫”功能,扫描刚刚保存的二维码进行授权推广,当收到“绑定成功”,即代表账号绑定完成,可以参与推广哦。
模型输出:
Q:如何绑定APP账号?A:您好,在个人中心点击“绑定账号”,保存弹出的二维码,打开APP“扫一扫”功能,扫描刚刚保存的二维码进行授权推广,当收到“绑定成功”,即代表账号绑定完成,可以参与推广哦。
Q:怎么绑定APP?A:您好,在个人中心点击“绑定账号”,保存弹出的二维码,打开APP“扫一扫”功能,扫描刚刚保存的二维码进行授权推广,当收到“绑定成功”,即代表账号绑定完成,可以参与推广哦。
Q:怎么算绑定成功A:您好,在个人中心点击“绑定账号”,保存弹出的二维码,打开APP“扫一扫”功能,扫描刚刚保存的二维码进行授权推广,当收到“绑定成功”,即代表账号绑定完成,可以参与推广哦。
在本发明第一方面一种可选的实施方式中,通过预设对话生成模型,将客服问答文本作为知识库接入到大语言模型包括:
通过预设对话生成模型,构建知识库问答应用;通过FastChat框架,将大语言模型接入知识库问答应用,并将客服问答文本作为知识库接入到大语言模型;在知识库问答应用中输入提问。
在本实施例中,通过Langchain-Chatchat模型,构建知识库问答应用,基于FastChat进行本地LLM模型接入,在知识库问答应用界面新建知识库,上传客服问答文本到知识库,以将客服问答文本作为知识库接入到大语言模型,在实际应用中,选择知识库问题对话模式,输入内容进行知识库对话,对话内容会从上传的知识库文件中搜索。
在本发明第一方面一种可选的实施方式中,客服智能问答实现方法还包括:
获取训练集,训练集包括提问样本与真实回答;对初始对话生成模型进行训练,将提问样本输入初始对话生成模型,生成预测回答;比较预测回答与真实回答之间的差异,更新初始对话生成模型的参数,获取预设对话生成模型。
在本实施例中,训练Langchain-Chatchat模型的过程包括两个主要步骤:前向传播和反向传播。在前向传播过程中,模型根据输入的问题,依次生成每个词的概率分布。在生成每个词的概率分布时,模型会考虑前面已经生成的词的上下文信息,以更好地理解用户的意图和要求。在反向传播过程中,模型通过比较生成的回答与真实的回答之间的差异,来更新模型的参数。这个差异可以通过交叉熵损失函数来计算,通过反向传播算法来更新模型的参数。通过多次迭代的训练过程,模型可以不断地优化自己,提高对话生成的准确性和流畅度。
参见图2,本发明第二方面提供了一种客服智能问答实现装置,所述客服智能问答实现装置包括:
回答文本获取模块100,用于接收客服问答实现请求,根据客服问答实现请求,获取客服回答文本,所述客服回答文本中包括多段内容;
问题生成模块200,用于根据客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,客服问答文本被处理为一问一答的形式;
知识库接入模块300,用于通过预设对话生成模型,将客服问答文本作为知识库接入到大语言模型;
匹配答案输出模块400,用于获取输入的提问,通过大语言模型,从知识库中搜索与提问匹配的答案,输出匹配的答案。
在本发明第二方面一种可选的实施方式中,匹配答案输出模块400还用于获取输入的提问,将输入的提问转化为文本向量;根据文本向量,通过大语言模型,从多个问题-答案对中搜索匹配的问题-答案对;输出匹配的问题-答案对中的答案。
在本发明第二方面一种可选的实施方式中,匹配答案输出模块400还用于根据文本向量,通过大语言模型,计算得到文本向量与所有问题-答案对的相似度;根据文本向量与所有问题-答案对的相似度,搜索与文本向量最匹配的问题-答案对。
在本发明第二方面一种可选的实施方式中,匹配答案输出模块400还用于获取输入的提问,并通过大语言模型,对输入的提问进行预处理,以纠正提问中的语法错误;提取预处理的提问中的关键点,判断输入的提问是否正确;若是,则将预处理的提问转化为文本向量。
在本发明第二方面一种可选的实施方式中,问题生成模块200还用于获取输入的提示词,提示词用于指示为每段内容生成问题的个数、以及问题输出的形式;根据提示词及客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本;将客服问答文本处理为一问一答的形式。
在本发明第二方面一种可选的实施方式中,知识库接入模块300还用于通过预设对话生成模型,构建知识库问答应用;通过FastChat框架,将大语言模型接入知识库问答应用,并将客服问答文本作为知识库接入到大语言模型;在知识库问答应用中输入提问。
在本发明第二方面一种可选的实施方式中,客服智能问答实现装置还包括模型训练模块,用于获取训练集,训练集包括提问样本与真实回答;对初始对话生成模型进行训练,将提问样本输入所述初始对话生成模型,生成预测回答;比较预测回答与真实回答之间的差异,更新初始对话生成模型的参数,获取预设对话生成模型。
图3是本发明实施例提供的一种客服智能问答实现设备的结构示意图,该客服智能问答实现设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)510(例如,一个或一个以上处理器)和存储器520,一个或一个以上存储应用程序533或数据532的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器520和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对客服智能问答实现设备500中的一系列指令操作。更进一步地,处理器510可以设置为与存储介质530通信,在客服智能问答实现设备500上执行存储介质530中的一系列指令操作。
基于客服智能问答实现设备500还可以包括一个或一个以上电源540,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口560,和/或,一个或一个以上操作系统531,例如Windows Serve,Mac OS X,Unix,Linux,Free BSD等等。本领域技术人员可以理解,图3示出的客服智能问答实现设备结构并不构成对基于客服智能问答实现设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述客服智能问答实现方法的步骤。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种客服智能问答实现方法,其特征在于,所述客服智能问答实现方法包括:
接收客服问答实现请求,根据所述客服问答实现请求,获取客服回答文本,所述客服回答文本中包括多段内容;
根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,所述客服问答文本被处理为一问一答的形式;
通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型;
获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案。
2.根据权利要求1所述的客服智能问答实现方法,其特征在于,所述知识库中包括多个问题-答案对;
所述获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案包括:
获取输入的提问,将所述输入的提问转化为文本向量;
根据所述文本向量,通过所述大语言模型,从所述多个问题-答案对中搜索匹配的问题-答案对;
输出所述匹配的问题-答案对中的答案。
3.根据权利要求2所述的客服智能问答实现方法,其特征在于,所述根据所述文本向量,通过所述大语言模型,从所述多个问题-答案对中搜索匹配的问题-答案对包括:
根据所述文本向量,通过所述大语言模型,计算得到所述文本向量与所有问题-答案对的相似度;
根据所述文本向量与所有问题-答案对的相似度,搜索与所述文本向量最匹配的问题-答案对。
4.根据权利要求2所述的客服智能问答实现方法,其特征在于,所述获取输入的提问,将所述输入的提问转化为文本向量包括:
获取输入的提问,并通过所述大语言模型,对所述输入的提问进行预处理,以纠正所述提问中的语法错误;
提取预处理的提问中的关键点,判断所述输入的提问是否正确;
若是,则将预处理的提问转化为文本向量。
5.根据权利要求1所述的客服智能问答实现方法,其特征在于,所述根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本包括:
获取输入的提示词,所述提示词用于指示为每段内容生成问题的个数、以及问题输出的形式;
根据所述提示词及所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本;
将所述客服问答文本处理为一问一答的形式。
6.根据权利要求1所述的客服智能问答实现方法,其特征在于,所述通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型包括:
通过预设对话生成模型,构建知识库问答应用;
通过FastChat框架,将所述大语言模型接入所述知识库问答应用,并将所述客服问答文本作为知识库接入到所述大语言模型;
在所述知识库问答应用中输入提问。
7.根据权利要求6所述的客服智能问答实现方法,其特征在于,还包括:
获取训练集,所述训练集包括提问样本与真实回答;
对初始对话生成模型进行训练,将所述提问样本输入所述初始对话生成模型,生成预测回答;
比较所述预测回答与所述真实回答之间的差异,更新所述初始对话生成模型的参数,获取预设对话生成模型。
8.一种客服智能问答实现装置,其特征在于,所述客服智能问答实现装置包括:
回答文本获取模块,用于接收客服问答实现请求,根据所述客服问答实现请求,获取客服回答文本,所述客服回答文本中包括多段内容;
问题生成模块,用于根据所述客服回答文本,通过大语言模型,为每段内容生成对应的一个或多个问题,得到客服问答文本,所述客服问答文本被处理为一问一答的形式;
知识库接入模块,用于通过预设对话生成模型,将所述客服问答文本作为知识库接入到所述大语言模型;
匹配答案输出模块,用于获取输入的提问,通过所述大语言模型,从所述知识库中搜索与所述提问匹配的答案,输出所述匹配的答案。
9.一种客服智能问答实现设备,其特征在于,所述客服智能问答实现设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述客服智能问答实现设备执行如权利要求1-7中任一项所述的客服智能问答实现方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述的客服智能问答实现方法。
CN202311868260.6A 2023-12-29 2023-12-29 客服智能问答实现方法、装置、设备及存储介质 Pending CN117891917A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311868260.6A CN117891917A (zh) 2023-12-29 2023-12-29 客服智能问答实现方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311868260.6A CN117891917A (zh) 2023-12-29 2023-12-29 客服智能问答实现方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117891917A true CN117891917A (zh) 2024-04-16

Family

ID=90642025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311868260.6A Pending CN117891917A (zh) 2023-12-29 2023-12-29 客服智能问答实现方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117891917A (zh)

Similar Documents

Publication Publication Date Title
CN108345690B (zh) 智能问答方法与系统
US20190057164A1 (en) Search method and apparatus based on artificial intelligence
CN111428010B (zh) 人机智能问答的方法和装置
CN108121800B (zh) 基于人工智能的信息生成方法和装置
CN112084789B (zh) 文本处理方法、装置、设备及存储介质
CN116737908A (zh) 知识问答方法、装置、设备和存储介质
CN117114063A (zh) 用于训练生成式大语言模型和用于处理图像任务的方法
CN116910221A (zh) 一种基于相似度检索提升大规模语言模型响应速度的方法
CN117668181A (zh) 信息处理方法、装置、终端设备以及存储介质
CN117493505A (zh) 智能问答方法、装置、设备和存储介质
CN113821527A (zh) 哈希码的生成方法、装置、计算机设备及存储介质
CN110377721B (zh) 自动问答方法、装置、存储介质及电子设备
CN117520497A (zh) 大模型交互处理方法、系统、终端、设备及介质
CN117763084A (zh) 基于文本压缩的知识库检索方法及相关设备
CN117573985B (zh) 一种应用于智能化在线教育系统的信息推送方法及系统
CN114357195A (zh) 基于知识图谱的问答对生成方法、装置、设备及介质
CN118113815A (zh) 内容搜索方法、相关装置和介质
CN117609472A (zh) 提升知识库长文本问答准确率的方法
CN117972038A (zh) 一种智能问答方法、装置及计算机可读介质
CN117688151A (zh) 基于知识库的问答方法、装置、计算机设备及存储介质
CN117332771A (zh) 内容点的获取方法、装置、计算机可读介质及电子设备
CN117669726A (zh) 自然语言问题处理方法、电子设备及计算机可读存储介质
CN117273167A (zh) 医疗模型的训练方法、医疗方法、装置、设备及存储介质
CN116610784A (zh) 一种保险业务场景问答推荐方法及其相关设备
CN117891917A (zh) 客服智能问答实现方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination