CN115438158A - 智能对话方法、装置、设备及存储介质 - Google Patents
智能对话方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115438158A CN115438158A CN202110629226.8A CN202110629226A CN115438158A CN 115438158 A CN115438158 A CN 115438158A CN 202110629226 A CN202110629226 A CN 202110629226A CN 115438158 A CN115438158 A CN 115438158A
- Authority
- CN
- China
- Prior art keywords
- clustering
- dialogue
- standard
- user
- inquiry request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
Abstract
本发明属于计算机技术领域,公开了一种智能对话方法、装置、设备及存储介质。本发明通过在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本;根据预设文本分析模型对所述对话文本进行解析,以确定用户意图;根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目标标准问题;获取所述目标标准问题对应的解答信息,将所述解答信息反馈至用户端。由于采用了预设文本分析模型,可以对问诊请求中的对话文本进行解析,快速明确用户意图,并且由于使用大量历史问诊对话记录进行分析、聚类构建标准问题库,标准问题库中标准问题覆盖全面,可满足用户在线挂号过程中各种提问需求,不必引入大量人工,可降低人工成本。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种智能对话方法、装置、设备 及存储介质。
背景技术
目前,在医疗领域已经大量使用了在线挂号等功能,但是,由于医疗领 域各种病情繁多,患者难以确定自身具体应该进行挂号的科室及医生,而现 有技术针对此种情况一般仅仅只是设定了部分常用问题,用户选择常用问题, 则弹出响应的答案,但是此类常用问题由于类别较少,问题覆盖率低,通常 无法解决用户疑惑,最终还需要引入人工服务,从而进行解答,而人工成本 高昂,也限制了该功能的普及与发展。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是 现有技术。
发明内容
本发明的主要目的在于提供一种智能对话方法、装置、设备及存储介质, 旨在解决现有技术在线挂号时问题覆盖率低,无法满足用户需求,从而需引 入人工服务,成本高昂的技术问题。
为实现上述目的,本发明提供了一种智能对话方法,所述方法包括以下 步骤:
在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本;
根据预设文本分析模型对所述对话文本进行解析,以确定用户意图;
根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目标 标准问题;
获取所述目标标准问题对应的解答信息,将所述解答信息反馈至用户端。
可选的,所述在接收到用户端发送的问诊请求时,根据所述问诊请求确 定对话文本的步骤之前,还包括:
获取聚类样本集,所述聚类样本集为根据历史问诊对话记录构建的无监 督样本集;
对所述聚类样本集进行特征提取,以获得聚类样本特征集;
根据所述聚类样本特征集进行无监督聚类,以获得聚类结果;
根据所述聚类结果对标准问题库进行扩展。
可选的,所述对所述聚类样本集进行特征提取,以获得聚类样本特征集 的步骤之前,包括:
获取初始预训练模型及特征提取样本集,其中,所述初始预训练模型为 基于Bi-LSTM算法构建的多层神经网络模型;
通过所述特征提取样本集对所述初始预训练模型进行训练,以获得预设 预训练模型;
相应的,所述对所述聚类样本集进行特征提取,以获得聚类样本特征集 的步骤,包括:
通过所述预设预训练模型对所述聚类样本集进行特征提取,以获得聚类 样本特征集。
可选的,所述初始预训练模型中各层神经网络之间设有归一化处理层, 所述归一化处理层用于进行残差连接处理及层归一化处理。
可选的,所述根据所述聚类样本特征集进行无监督聚类,以获得聚类结 果的步骤,包括:
通过自编码聚类算法对所述聚类样本特征集进行无监督聚类,以获得聚 类结果。
可选的,所述根据所述聚类结果对标准问题库进行扩展的步骤,包括:
将所述聚类结果进行展示,并接收用户基于所述聚类结果发送的问题标 注指令;
根据所述问题标注指令确定问题标注结果,并根据所述聚类结果及所述 问题标注结果生成聚类标准问题;
根据所述聚类标准问题对标准问题库进行扩展。
可选的,所述在接收到用户端发送的问诊请求时,根据所述问诊请求确 定对话文本的步骤,包括:
在接收到用户端发送的问诊请求时,提取所述问诊请求中的对话信息;
确定所述对话信息的数据格式;
在所述数据格式为文本格式时,将所述对话信息作为对话文本;
在所述数据格式为音频格式时,对所述对话信息进行语音识别,以获得 对话文本。
此外,为实现上述目的,本发明还提出一种智能对话装置,所述智能对 话装置包括以下模块:
请求接收模块,用于在接收到用户端发送的问诊请求时,根据所述问诊 请求确定对话文本;
意图分析模块,用于根据预设文本分析模型对所述对话文本进行解析, 以确定用户意图;
问题匹配模块,用于根据所述用户意图与标准问题库中各个标准问题进 行匹配,以获得目标标准问题;
对话响应模块,用于获取所述目标标准问题对应的解答信息,将所述解 答信息反馈至用户端。
此外,为实现上述目的,本发明还提出一种智能对话设备,所述智能对 话设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运 行的智能对话程序,所述智能对话程序被处理器执行时实现如上所述的智能 对话方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述 计算机可读存储介质上存储有智能对话程序,所述智能对话程序执行时实现 如上所述的智能对话方法的步骤。
本发明通过在接收到用户端发送的问诊请求时,根据所述问诊请求确定 对话文本;根据预设文本分析模型对所述对话文本进行解析,以确定用户意 图;根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目标 标准问题;获取所述目标标准问题对应的解答信息,将所述解答信息反馈至 用户端。由于采用了预设文本分析模型,可以对问诊请求中的对话文本进行 解析,快速明确用户意图,并且由于使用大量历史问诊对话记录进行分析、 聚类构建标准问题库,标准问题库中标准问题覆盖全面,可满足用户在线挂号过程中各种提问需求,不必引入大量人工,可降低人工成本。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的电子设备的结构示意图;
图2为本发明智能对话方法第一实施例的流程示意图;
图3为本发明智能对话方法第二实施例的流程示意图;
图4为本发明智能对话方法一实施例自编码聚类算法的算法流程示意图;
图5为本发明一实施例智能对话方法的整体流程示意图;
图6为本发明智能对话装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步 说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定 本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的智能对话设备 结构示意图。
如图1所示,该电子设备可以包括:处理器1001,例如中央处理器(CentralProcessing Unit,CPU),通信总线1002、用户接口1003,网络接口1004, 存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户 接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可 选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可 选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity, WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前 述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对电子设备的限 定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部 件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网 络通信模块、用户接口模块以及智能对话程序。
在图1所示的电子设备中,网络接口1004主要用于与网络服务器进行数 据通信;用户接口1003主要用于与用户进行数据交互;本发明电子设备中的 处理器1001、存储器1005可以设置在智能对话设备中,所述电子设备通过处 理器1001调用存储器1005中存储的智能对话程序,并执行本发明实施例提 供的智能对话方法。
本发明实施例提供了一种智能对话方法,参照图2,图2为本发明一种智 能对话方法第一实施例的流程示意图。
本实施例中,所述智能对话方法包括以下步骤:
步骤S10:在接收到用户端发送的问诊请求时,根据所述问诊请求确定对 话文本。
需要说明的是,本实施例的执行主体可以是所述智能对话设备,所述智 能对话设备可以是个人电脑、服务器等电子设备,还可以为其他可实现相同 或相似功能的设备,本实施例对此不加以限制,在本实施例及下述各实施例 中,以智能对话设备为例对本发明智能对话方法进行说明。
需要说明的是,问诊请求可以是用户在需要进行就诊或需要进行挂号时 通过用户终端,即用户端发送至智能对话设备的请求,问诊请求中可以包括 用户发送的对话信息,根据问诊请求确定对话文本可以是解析问诊请求,获 取问诊请求中的对话信息,以获得对话文本。
进一步地,在实际使用中,由于打字相比语音较为繁琐,用户可能并不 会直接输入文字,而可能输入语音,即问诊请求中包含的对话信息可能并非 文本格式的数据,还有可能是音频格式的数据,为了保证可以准确的获取到 对话文本,以便于后续操作,本实施例步骤S10,可以包括:
在接收到用户端发送的问诊请求时,提取所述问诊请求中的对话信息; 确定所述对话信息的数据格式;在所述数据格式为文本格式时,将所述对话 信息作为对话文本;在所述数据格式为音频格式时,对所述对话信息进行语 音识别,以获得对话文本。
需要说明的是,请求分为请求头(RequestHead)和请求体(RequestBody), 在请求传递过程中,会将数据存放至请求体中,因此,提取问诊请求中的对 话信息可以是解析问诊请求,获取问诊请求中的请求体,读取请求体中的数 据,以获得对话信息。
需要说明的是,在请求传递过程中,可在请求头中声明传递的数据的类 型,在传递不同类型的数据时,请求头中的设置也并不相同,因此,确定对 话信息的数据格式可以是读取问诊请求的请求头,根据请求头中的设置,确 定问诊请求中对话信息的数据格式。
可以理解的是,若对话信息的数据格式为文本格式,则说明用户发送的 是对话文本,因此,可以直接将问诊请求中的对话信息作为对话文本。若对 话信息的数据格式为音频格式,则说明用户发送的数据格式为语音,则此时 可以对对话信息进行语音识别,从而获取对话信息对应的文本信息,以获得 对话文本。
步骤S20:根据预设文本分析模型对所述对话文本进行解析,以确定用户 意图。
需要说明的是,预设文本分析模型可以是利用大量数据构建意图分析样 本集,根据意图分析样本集中的意图分析样本对初始文本分析模型进行训练 得到的。其中,意图分析样本可以包括对话样本及该对话样本对应的标准用 户意图,初始文本分析模型可以是RNN-Attention模型,也可以是其他功能相 似的模型,本实施例对此不加以限制。
可以理解的是,预设文本分析模型在训练完毕之后,可以通过自然语言 理解(NLU)技术对对话文本进行解析,获取对话文本对应的语义,根据语 义即可确定用户询问的问题,从而确定用户意图。
在实际使用中,在初始文本分析模型训练完毕时,还可以通过意图分析 测试样本集测试训练完毕的初始文本分析模型的意图分析准确率,在意图分 析准确率大于预设准确率阈值时,将训练完毕的初始文本分析模型作为预设 文本分析模型。在意图分析准确率小于或等于预设准确率阈值时,可以扩大 意图分析样本集的规模,然后根据扩大规模后的意图分析样本集对初始文本 分析模型进行训练。
步骤S30:根据所述用户意图与标准问题库中各个标准问题进行匹配,以 获得目标标准问题。
需要说明的是,标准问题库可以包括大量的标准问题,标准问题可以是 根据大量历史问诊对话记录进行分析、聚类得到的。其中,历史问诊对话记 录可以是在挂号场景收集的用户问诊数据,用户问诊数据可以包括用户提出 的问题及该问题对应的答案等数据。
需要说明的是,根据所述用户意图与标准问题库中各个标准问题进行匹 配,以获得目标标准问题可以是将用户意图与标准问题库中各个标准问题进 行匹配,将匹配成功的问题作为目标标准问题。
步骤S40:获取所述目标标准问题对应的解答信息,将所述解答信息反馈 至用户端。
可以理解的是,在确定目标标准问题之后,获取目标标准问题对应的解 答信息,并将解答信息反馈至用户端,用户端在接收到解答信息时可以将解 答信息进行展示。
本实施例通过在接收到用户端发送的问诊请求时,根据所述问诊请求确 定对话文本;根据预设文本分析模型对所述对话文本进行解析,以确定用户 意图;根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目 标标准问题;获取所述目标标准问题对应的解答信息,将所述解答信息反馈 至用户端。由于采用了预设文本分析模型,可以对问诊请求中的对话文本进 行解析,快速明确用户意图,并且由于使用大量历史问诊对话记录进行分析、 聚类构建标准问题库,标准问题库中标准问题覆盖全面,可满足用户在线挂 号过程中各种提问需求,不必引入大量人工,可降低人工成本。
参考图3,图3为本发明一种智能对话方法第二实施例的流程示意图。
基于上述第一实施例,本实施例智能对话方法在所述步骤S10之前,还 包括:
步骤S01:获取聚类样本集,所述聚类样本集为根据历史问诊对话记录构 建的无监督样本集。
需要说明的是,无监督样本为并未由人工进行标签分类的样本,聚类样 本集可以是由多个聚类样本组合构建的集合,聚类样本可以是根据历史问诊 对话记录构建的无监督样本,聚类样本中可以包括用户提问的疑问文本数据 及该疑问文本数据对应的解答文本数据。
步骤S02:对所述聚类样本集进行特征提取,以获得聚类样本特征集。
需要说明的是,对所述聚类样本集进行特征提取,以获得聚类样本特征 集可以是遍历聚类样本集,以获得当前聚类样本,对当前聚类样本进行特征 提取,以获得聚类样本特征,在遍历结束时,根据所有获得的聚类样本特征 构建聚类样本特征集。
在实际使用中,可以通过传统特征提取模型对聚类样本集中的各个聚类 样本进行特征提取,其中,传统特征提取模型可以是transformer模型。
进一步地,为了提高提取的特征的表征能力,本实施例步骤S02之前, 还可以包括:
获取初始预训练模型及特征提取样本集,其中,所述初始预训练模型为 基于Bi-LSTM算法构建的多层神经网络模型;通过所述特征提取样本集对所 述初始预训练模型进行训练,以获得预设预训练模型;
相应的,所述步骤S02,可以包括:
通过所述预设预训练模型对所述聚类样本集进行特征提取,以获得聚类 样本特征集。
需要说明的是,Bi-LSTM算法可以是由LSTM前向传播算法及LSTM反 向传播算法组合构建的算法,基于Bi-LSTM算法构建的模型,在训练完毕时 得到的模型相比传统的特征提取模型(如Word2vec模型)提取的特征更加的 全面,特征表征能力更强,更利于后续聚类处理。特征提取样本集可以是由 大量特征提取样本构建的集合,特征提取样本可以是由待提取数据及标准特 征信息构建而成的样本,根据特征提取样本集对初始预训练模型进行训练, 在训练过程中不断对初始预训练模型进行参数优化,在训练完成时,即可获 得预设预训练模型。
可以理解的是,在对初始预训练模型在训练完毕之后,还可以获取与特 征提取样本集相同的构建方式的提取验证样本集,根据提取验证样本集对训 练完毕的初始预训练模型进行测试,确定训练完毕的初始预训练模型的特征 提取准确率,在准确率高于预设阈值时,将训练完毕的初始预训练模型作为 预设预训练模型。在准确率低于预设阈值时,可以扩大特征提取样本集的规 模,继续对初始预训练模型进行训练。
进一步地,由于初始预训练模型为基于Bi-LSTM算法构建的多层神经网 络模型,而多层神经网络模型在实际使用过程中可能会由于神经网络层数过 多,导致梯度爆炸或梯度消失,为了克服上述缺陷,本实施例中所构建的初 始预训练模型中各层神经网络之间可以设有归一化处理层,所述归一化处理 层用于进行残差连接处理及层归一化处理。
需要说明的是,归一化处理层可以是一个残差连接的层归一化(layernormalization)层,残差连接结构可以减弱梯度消失的问题,层归一化可以防 止层内的数值变化过大,由此可以避免梯度爆炸或梯度消失,并在一定程度 上加快模型训练速度,且提高模型的泛化能力。
步骤S03:根据所述聚类样本特征集进行无监督聚类,以获得聚类结果。
可以理解的是,在获取到聚类样本特征集之后,即可根据聚类样本特征 集进行无监督聚类,确定各个聚类中心,从而获得聚类结果。
在实际使用中,可以通过各种聚类算法对聚类样本特征集进行无监督聚 类,以获得聚类结果。其中,聚类算法可以为k-means等算法。
进一步地,由于传统的聚类算法,如k-means算法表征能力弱,对腰部问 题挖掘能力较差,从而导致挖掘出的问题覆盖率较低,为了提高问题挖掘的 准确性和覆盖度,本实施例步骤S03,可以包括:
通过自编码聚类算法对所述聚类样本特征集进行无监督聚类,以获得聚 类结果。
需要说明的是,传统的聚类算法,如kmeans、GMM、DBSCAN、HAC 等,虽然已经有广泛的应用,但是这些算法其实很少考虑到学习适合聚类的 特征表征,而自编码聚类算法(Deep Embedded Clustering,DEC算法,也被 称为深度聚类算法)正是将特征表征和聚类中心分配一同学习,可以提升聚 类效果。
如图4所示,图4为自编码聚类算法的算法流程示意图,DEC算法分为 两阶段训练模型,第一阶段训练AE(autoencoder,包括encoder部分和decoder 部分)模型作为初始特征表征,第二阶段利用训练好的AE模型中的encoder 部分与聚类中心的分配(clusterassignment)一起做微调(fine-tune),这样 可以同时优化encoder及聚类中心的分配,使得两个任务可以互相促进,互相 学习。在本实施例中可以将预设预训练模型作为DEC算法中的特征表征。
与传统聚类方法不同,DEC算法中使用的分配模式为软分配,一个样本 既能属于一个聚类,也可以属于另一个聚类,也就是每个样本的聚类结果均 可以有一个不为0的概率。从生成(generative)的角度来看待聚类,则聚类 数据为由一个生成模型(generativemodel)生成,则聚类中心的分配也可以 是一个概率分布。
DEC算法中使用概率分布q代表样本属于聚类中心的概率,qij表示样本 zi属于聚类中心μj的概率,α可以为一个常数,例如:1,若假设样本的分 布服从t-student分布,则qij可以表示为:
在得到特征表征之后,可以先使用k-means算法根据聚类样本特征集初始 化聚类中心,DEC设计了一个理想分布p,p分布的的分布表达公式可以为:
fj=∑iqij。
其中,qij为样本zi属于聚类中心μj的概率。
选择p分布的主要考虑有三点:
1、强化预测。p分布为软分配的概率,那么p如果使用delta分布来表示, 显得比较原始。
2、置信度越高,属于某个聚类概率越大。
3、规范每个质心的loss损失贡献,以防止大类扭曲隐藏的特征空间。
整体训练过程就是通过优化KL散度(Kullback-Leibler Divergence,KLD), 公式可以为:
同时该公式也为DEC算法的损失函数,即相对熵不断优化p、q两个分 布间的差异,则由上述公式可推导出DEC算法每次迭代需要更新的参数。
其中,AE模型中encoder部分参数优化公式为:
聚类中心优化公式可以为:
步骤S04:根据所述聚类结果对标准问题库进行扩展。
可以理解的是,根据聚类结果可以确定各个聚类中心,在确定各个聚类 中心之后即可确定各个聚类中心对应的标准问题,即可根据各个聚类中心对 应的标准问题对标准问题库进行扩展,从而丰富标准问题库中的标准问题数 量。
在实际使用中,随着本实施例智能对话方法的不断运行,采集的历史问 诊对话记录越来越丰富,则构建的聚类样本集也会越来越丰富,标准问题库 中的标准问题也会不断丰富,以保证智能对话方法可以持续学习,满足随着 时间发展用户不断提出的新的问题。
进一步地,为了保证标准问题库中各标准问题的准确性及合理性,本实 施例步骤S04,可以包括:
将所述聚类结果进行展示,并接收用户基于所述聚类结果发送的问题标 注指令;根据所述问题标注指令确定问题标注结果,并根据所述聚类结果及 所述问题标注结果生成聚类标准问题;根据所述聚类标准问题对标准问题库 进行扩展。
需要说明的是,机器学习也会存在学习失败或学习误差等现象,若直接 根据聚类结果对标准问题库进行扩展,可能会导致标准问题库混乱,甚至出 现错漏等现象,因此,可以在根据聚类结果对标准问题库进行扩展时可以先 将聚类结果进行展示,并接收用户基于聚类结果发送的问题标注指令,根据 问题标注指令确定问题标注结果,再根据聚类结果集问题标注结果生成聚类 标准问题,然后根据聚类标准问题对标注问题库进行扩展。
可以理解的是,由于加入了人工监督,在进行扩展时可以避免出现标注 问题库混乱或出现错漏等现象,且由于人工监督仅需对聚类结果进行标注, 工作量并不大,并不会大量提升人工成本。
在实际使用中,为了验证采用Bi-LSTM预训练模型作为特征表征的DEC 算法的有效性,一共设计了三个实验,第一个实验为k-means+Word2vec Representation,使用Word2vec得到的静态表征作为词向量,直接输入到 k-means进行聚类;第二个实验是DEC+Word2vec Representation,使用 Word2vec得到的静态表征,作为DEC的输入;第三个实验是DEC+Bi-LSTM 预训练模型,使用Bi-LSTM预训练模型得到的静态表征,输入到DEC,模型训练过程中自动进行表征的优化。在实验过程中,一共观测了三组指标,分 别是准确率(accuracy)、F1分数(F1-score)以及算法运行时间(runtime), 具体结果如下表所示:
models | accuracy | F1-score | runtime |
k-means+Word2vec | 0.316 | 0.347 | <5min |
DEC+Word2vec | 0.621 | 0.525 | 10min |
DEC+Bi-LSTM | 0.846 | 0.852 | 30min |
表1模型对比评价效果
由上表结果可知,在同样使用Word2vec表征的情况下,DEC算法表现稍 优于k-means+Word2vec,但差别不大,使用Bi-LSTM模型结合DEC算法明 显优于传统的DEC算法,说明使用Bi-LSTM作为特征表征对于DEC算法性 能提升有着重要作用。
在实际使用中,使用改进的DEC算法对相对传统模型,可以对传统模型 未识别出的以及识别错误的问题(question)重新聚类挖掘。新挖掘出的问题 主要有:“请问要怎么注销账号?”,“糖尿病哪里做手术比较好?”,“如 何添加就诊人?”等几类标准问题。在使用传统模型(k-means+Word2vec) 挖掘问题时,询问糖尿病在哪做手术比较好的问题被分配到了“糖尿病怎么 办“的标准问题,只关注了“糖尿病”这个关键字而没能考虑整个句子的语 义信息。模型改进以后明显提升了标准问题的分类效果。
参考图5,图5为本实施例智能对话方法的整体流程示意图。
在实际使用中,整体流程总共分为三个阶段:
第一阶段:问题挖掘阶段。主要三个步骤:第一步问题获取,从之前预 约挂号积累的数据提取出用户常见的问题。第二步对问题聚类。第三步对问 题标准化,并进行扩展。这一步可结合聚类的结果和人工标注结果对问题进 行标准化和扩展。
第二阶段:模型迭代阶段。主要分为两个步骤:第一步对第一阶段总结 的问题进行分类的模型训练;第二步对模型分类效果的准确性评估;模型上 线之后进行线上效果测评,主要观测准确率和召回率,并返回到图中第一阶 段标准问题以及扩展问题总结进行迭代。
第三阶段:对话响应阶段。主要是对第一阶段总结的问题进行标准化响 应的配置以及多轮对话设计。
本实施例通过获取聚类样本集,所述聚类样本集为根据历史问诊对话记 录构建的无监督样本集;对所述聚类样本集进行特征提取,以获得聚类样本 特征集;根据所述聚类样本特征集进行无监督聚类,以获得聚类结果;根据 所述聚类结果对标准问题库进行扩展。由于在进行智能对话之前还根据对聚 类样本集进行特征提取,并根据特征提取得到的聚类样本特征集进行聚类, 根据聚类结果对标准问题库进行扩展,从而丰富了标准问题库中的标准问题, 提高了智能对话方法的实用性。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有智能 对话程序,所述智能对话程序被处理器执行时实现如上文所述的智能对话方 法的步骤。
参照图6,图6为本发明智能对话装置第一实施例的结构框图。
如图6所示,本发明实施例提出的智能对话装置包括:
请求接收模块601,用于在接收到用户端发送的问诊请求时,根据所述问 诊请求确定对话文本;
意图分析模块602,用于根据预设文本分析模型对所述对话文本进行解 析,以确定用户意图;
问题匹配模块603,用于根据所述用户意图与标准问题库中各个标准问题 进行匹配,以获得目标标准问题;
对话响应模块604,用于获取所述目标标准问题对应的解答信息,将所述 解答信息反馈至用户端。
本实施例通过在接收到用户端发送的问诊请求时,根据所述问诊请求确 定对话文本;根据预设文本分析模型对所述对话文本进行解析,以确定用户 意图;根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目 标标准问题;获取所述目标标准问题对应的解答信息,将所述解答信息反馈 至用户端。由于采用了预设文本分析模型,可以对问诊请求中的对话文本进 行解析,快速明确用户意图,并且由于使用大量历史问诊对话记录进行分析、 聚类构建标准问题库,标准问题库中标准问题覆盖全面,可满足用户在线挂 号过程中各种提问需求,不必引入大量人工,可降低人工成本。
进一步地,所述请求接收模块601,还用于获取聚类样本集,所述聚类样 本集为根据历史问诊对话记录构建的无监督样本集;对所述聚类样本集进行 特征提取,以获得聚类样本特征集;根据所述聚类样本特征集进行无监督聚 类,以获得聚类结果;根据所述聚类结果对标准问题库进行扩展。
进一步地,所述请求接收模块601,还用于获取初始预训练模型及特征提 取样本集,其中,所述初始预训练模型为基于Bi-LSTM算法构建的多层神经 网络模型;通过所述特征提取样本集对所述初始预训练模型进行训练,以获 得预设预训练模型;
所述请求接收模块601,还用于通过所述预设预训练模型对所述聚类样本 集进行特征提取,以获得聚类样本特征集。
进一步地,所述请求接收模块601,还用于通过自编码聚类算法对所述聚 类样本特征集进行无监督聚类,以获得聚类结果。
进一步地,所述请求接收模块601,还用于将所述聚类结果进行展示,并 接收用户基于所述聚类结果发送的问题标注指令;根据所述问题标注指令确 定问题标注结果,并根据所述聚类结果及所述问题标注结果生成聚类标准问 题;根据所述聚类标准问题对标准问题库进行扩展。
进一步地,所述请求接收模块601,还用于在接收到用户端发送的问诊请 求时,提取所述问诊请求中的对话信息;确定所述对话信息的数据格式;在 所述数据格式为文本格式时,将所述对话信息作为对话文本;在所述数据格 式为音频格式时,对所述对话信息进行语音识别,以获得对话文本。
应当理解的是,以上仅为举例说明,对本发明的技术方案并不构成任何 限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本发明对 此不做限制。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本发明 的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需 要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本发明任意实施例 所提供的智能对话方法,此处不再赘述。
此外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变 体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品 或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是 还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的 情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、 方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述 实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通 过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技 术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体 现出来,该计算机软件产品存储在一个存储介质(如只读存储器(Read Only Memory,ROM)/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端 设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实 施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是 利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间 接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种智能对话方法,其特征在于,所述智能对话方法包括以下步骤:
在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本;
根据预设文本分析模型对所述对话文本进行解析,以确定用户意图;
根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目标标准问题;
获取所述目标标准问题对应的解答信息,将所述解答信息反馈至用户端。
2.如权利要求1所述的智能对话方法,其特征在于,所述在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本的步骤之前,还包括:
获取聚类样本集,所述聚类样本集为根据历史问诊对话记录构建的无监督样本集;
对所述聚类样本集进行特征提取,以获得聚类样本特征集;
根据所述聚类样本特征集进行无监督聚类,以获得聚类结果;
根据所述聚类结果对标准问题库进行扩展。
3.如权利要求2所述的智能对话方法,其特征在于,所述对所述聚类样本集进行特征提取,以获得聚类样本特征集的步骤之前,包括:
获取初始预训练模型及特征提取样本集,其中,所述初始预训练模型为基于Bi-LSTM算法构建的多层神经网络模型;
通过所述特征提取样本集对所述初始预训练模型进行训练,以获得预设预训练模型;
相应的,所述对所述聚类样本集进行特征提取,以获得聚类样本特征集的步骤,包括:
通过所述预设预训练模型对所述聚类样本集进行特征提取,以获得聚类样本特征集。
4.如权利要求3所述的智能对话方法,其特征在于,所述初始预训练模型中各层神经网络之间设有归一化处理层,所述归一化处理层用于进行残差连接处理及层归一化处理。
5.如权利要求2所述的智能对话方法,其特征在于,所述根据所述聚类样本特征集进行无监督聚类,以获得聚类结果的步骤,包括:
通过自编码聚类算法对所述聚类样本特征集进行无监督聚类,以获得聚类结果。
6.如权利要求2所述的智能对话方法,其特征在于,所述根据所述聚类结果对标准问题库进行扩展的步骤,包括:
将所述聚类结果进行展示,并接收用户基于所述聚类结果发送的问题标注指令;
根据所述问题标注指令确定问题标注结果,并根据所述聚类结果及所述问题标注结果生成聚类标准问题;
根据所述聚类标准问题对标准问题库进行扩展。
7.如权利要求1-6任一项所述的智能对话方法,其特征在于,所述在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本的步骤,包括:
在接收到用户端发送的问诊请求时,提取所述问诊请求中的对话信息;
确定所述对话信息的数据格式;
在所述数据格式为文本格式时,将所述对话信息作为对话文本;
在所述数据格式为音频格式时,对所述对话信息进行语音识别,以获得对话文本。
8.一种智能对话装置,其特征在于,所述智能对话装置包括以下模块:
请求接收模块,用于在接收到用户端发送的问诊请求时,根据所述问诊请求确定对话文本;
意图分析模块,用于根据预设文本分析模型对所述对话文本进行解析,以确定用户意图;
问题匹配模块,用于根据所述用户意图与标准问题库中各个标准问题进行匹配,以获得目标标准问题;
对话响应模块,用于获取所述目标标准问题对应的解答信息,将所述解答信息反馈至用户端。
9.一种智能对话设备,其特征在于,所述智能对话设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的智能对话程序,所述智能对话程序被处理器执行时实现如权利要求1-7中任一项所述的智能对话方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能对话程序,所述智能对话程序执行时实现如权利要求1-7中任一项所述的智能对话方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629226.8A CN115438158A (zh) | 2021-06-04 | 2021-06-04 | 智能对话方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629226.8A CN115438158A (zh) | 2021-06-04 | 2021-06-04 | 智能对话方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115438158A true CN115438158A (zh) | 2022-12-06 |
Family
ID=84271964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110629226.8A Pending CN115438158A (zh) | 2021-06-04 | 2021-06-04 | 智能对话方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115438158A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116204626A (zh) * | 2023-05-05 | 2023-06-02 | 江西尚通科技发展有限公司 | 基于深度学习的对话新意图发现方法、系统及计算机 |
-
2021
- 2021-06-04 CN CN202110629226.8A patent/CN115438158A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116204626A (zh) * | 2023-05-05 | 2023-06-02 | 江西尚通科技发展有限公司 | 基于深度学习的对话新意图发现方法、系统及计算机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113094578A (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN111309916B (zh) | 摘要抽取方法和装置、存储介质和电子装置 | |
CN112233698A (zh) | 人物情绪识别方法、装置、终端设备及存储介质 | |
CN110580516B (zh) | 一种基于智能机器人的交互方法及装置 | |
WO2021208444A1 (zh) | 电子病例自动生成方法、装置、设备及存储介质 | |
CN112131876A (zh) | 一种基于相似度确定标准问题的方法及系统 | |
CN112685550B (zh) | 智能问答方法、装置、服务器及计算机可读存储介质 | |
CN112468659A (zh) | 应用于电话客服的质量评价方法、装置、设备及存储介质 | |
CN112632248A (zh) | 问答方法、装置、计算机设备和存储介质 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN110717021A (zh) | 人工智能面试中获取输入文本和相关装置 | |
CN113836303A (zh) | 一种文本类别识别方法、装置、计算机设备及介质 | |
CN113204643B (zh) | 一种实体对齐方法、装置、设备及介质 | |
CN115438158A (zh) | 智能对话方法、装置、设备及存储介质 | |
CN112597292A (zh) | 问题回复推荐方法、装置、计算机设备和存储介质 | |
CN112035631A (zh) | 结合rpa及ai的对话问答方法、装置、设备及存储介质 | |
CN111400340A (zh) | 一种自然语言处理方法、装置、计算机设备和存储介质 | |
CN109033078B (zh) | 语句类别识别方法及装置、存储介质、处理器 | |
CN113095073B (zh) | 语料标签生成方法、装置、计算机设备和存储介质 | |
CN112115248B (zh) | 一种从对话语料中抽取对话策略结构的方法及系统 | |
CN115248843A (zh) | 辅助生成笔录的方法、装置和笔录生成系统 | |
CN115630147A (zh) | 应答方法、装置、电子设备及存储介质 | |
CN114676237A (zh) | 语句相似度确定方法、装置、计算机设备和存储介质 | |
CN113763934A (zh) | 音频识别模型的训练方法、装置和存储介质及电子设备 | |
CN112395402A (zh) | 基于深度模型的推荐话术生成方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |