CN110717027A - 多轮智能问答方法、系统以及控制器和介质 - Google Patents
多轮智能问答方法、系统以及控制器和介质 Download PDFInfo
- Publication number
- CN110717027A CN110717027A CN201910995561.2A CN201910995561A CN110717027A CN 110717027 A CN110717027 A CN 110717027A CN 201910995561 A CN201910995561 A CN 201910995561A CN 110717027 A CN110717027 A CN 110717027A
- Authority
- CN
- China
- Prior art keywords
- answer
- question
- entity
- round
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种多轮智能问答方法、系统以及控制器和介质,所述方法包括:获取当前轮和先前轮的问句信息;基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。本发明基于意图识别和实体抽取实现多轮问答,提高了多轮问答的准确率,降低了维护成本。
Description
技术领域
本发明涉及人机交互技术领域,尤其涉及一种多轮智能问答方法、系统以及控制器和介质。
背景技术
现在智能问答系统多以一问一答的方式构建,部分多轮问答系统仅是简单基于后处理判断意图实体来解决交互问题,不能有效结合当前问答之间的问答留下来的信息来处理多轮问答的机器回复。
但是,对于越来越多的任务型问答需求,往往需要保存前后人机交互留下的信息,并且根据以往交互信息,机器抛出问题引导客户完成任务型问答,这样对问答系统要求比较高,以往的简单交互和基于规则的多轮不能够满足如今的任务型多轮问答,表达能力有限且不易维护。
发明内容
本发明目的在于,提供一种多轮智能问答方法、系统以及控制器和介质,基于意图识别和实体抽取实现多轮问答,提高了多轮问答的准确率,降低了维护成本。
根据本发明第一实施例,提供了一种多轮智能问答方法,包括:
获取当前轮和先前轮的问句信息;
基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;
基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
所述基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答,包括:
基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列,基于所述当前轮问答序列选择最优回答。
进一步的,所述基于所述当前轮问答序列选择最优回答,包括:
将所述当前轮问答序列输入预先训练好的LSTM模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
进一步的,还包括:获取所述LSTM模型,具体包括:
采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;
基于所述问答序列构建问答序列向量;
调参并训练LSTM类别概率器得到所述LSTM模型。
进一步的,获取问句信息,包括:
将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
进一步的,所述基于所述问句信息确定意图和实体,包括:
将所述文本序列转换为文本向量后输入至预先训练好的意图分类模型中,得到对应的意图;
将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
进一步的,所述方法还包括获取所述意图分类模型和实体提取模型,具体包括:
采集符合应用场景的问答数据作为训练集文本;
将所述训练集文本进行分词、去停用词和无效字符、统一字体处理;
构建空间向量模型,再进行特征选择,特征加权,特征降维处理;
调参并训练分类器得到所述意图分类模型;
将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;
设置特征模板和CRF的训练数据标签;
调参并训练CRF实体提取器得到所述实体提取模型。
进一步的,根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所获取的意图和实体。
根据本发明第二实施例,提供了一种多轮智能问答系统,包括:
问句信息获取模块,配置为获取当前轮和先前轮的问句信息;
意图实体确定模块,配置为基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;
最优回答选择模块,配置为基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
进一步的,所述最优回答选择模块包括:
问答序列生成单元:配置为基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列,
最优回答选择单元,配置为基于所述当前轮问答序列选择最优回答。
进一步的,所述最优回答选择单元还配置为:将所述当前轮问答序列输入预先训练好的LSTM模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
进一步的,所述系统还包括第一模型建立模块,配置为获取所述LSTM模型;
所述第一模型建立模块包括:
训练数据采集单元,配置为采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;
问答序列向量构建单元,配置为基于所述问答序列构建问答序列向量;
LSTM模型训练单元,配置为调参并训练LSTM类别概率器得到所述LSTM模型。
进一步的,所述问句信息获取模块具体配置为:
将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
进一步的,所述意图实体确定模块包括:
意图判断单元,配置为将所述文本序列转换为轮文本向量后输入至预先训练好的意图分类模型中,得到对应的意图;
实体提取单元,配置为将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
进一步的,所述系统还包括第二模型建立模块,配置为获取所述意图分类模型和实体提取模型,所述第二模型建立模块包括:
训练集文本采集单元,配置为采集符合应用场景的问答数据作为训练集文本;
训练集文本预处理单元,配置为将所述训练集文本进行分词、去停用词和无效字符、统一字体处理;
特征向量处理单元,配置为构建空间向量模型,再进行特征选择,特征加权,特征降维处理;
意图分类模型训练单元,配置为调参并训练分类器得到所述意图分类模型;
CRF训练数据获取单元,配置为将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;
CRF的训练数据处理单元,配置为设置特征模板和CRF的训练数据标签;
实体提取模型训练单元,配置为调参并训练CRF实体提取器得到所述实体提取模型。
进一步的,所述系统还包括意图实体校验模块,配置为根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所述获取的意图和实体。
实体提取模型,所述第二模型建立模块包括根据本发明第三实施例,提供了一种控制器,其包括存储器与处理器,所述存储器存储有计算机程序,所述程序在被所述处理器执行时能够实现所述方法的步骤。
根据本发明第四实施例,提供了一种计算机可读存储介质,用于存储计算机程序,所述程序在由一计算机或处理器执行时实现所述方法的步骤。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种多轮智能问答方法、系统以及控制器和介质可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明基于当前问答之前的问答序列及当前的问答意图和实体预测当前回答最优模板,提高了多轮问答的准确率。本发明可通过增加相关训练数据来改善相应的模型来进一步提高多轮对话的准确率,不需要通过改动原有代码做多轮判断,降低了系统维护成本,提高了快速响应机制。此外,本发明通过对意图和实体的检验和校正进一步提高了多伦对话的准确率,提高了对话效率,提升了用户体验。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的多轮智能问答方法流程图;
图2为本发明实施例提供的LSTM模型获取过程示意图;
图3为本发明实施例提供的意图分类模型和实体提取模型获取过程示意图;
图4为本发明实施例提供的多轮智能问答系统示意图。
【符号说明】
1:问句信息获取模块 2:意图实体确定模块
3:最优回答选择模块
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种多轮智能问答方法、系统以及控制器和介质的具体实施方式及其功效,详细说明如后。
本发明实施例提供了一种多轮智能问答方法,如图1所示,所述方法包括:
步骤S1、获取当前轮和先前轮的问句信息;
步骤S2、基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;
其中,实体是指句子中有用的部分,根据具体的应用场景可设定相应的提取规则,从而得到句子中的实体。例如,“今天温度是几度?”其中,“今天”、“温度”、“几度”为本句的实体部分。
步骤S3、基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
步骤S3中得到最优回答时还可附带查询数据库和调用相关应用程序编程接口(Application Programming Interface,简称API),例如回答使用地图导航时,会调用相应的地图API。
本发明实施例所述方法基于当前问答之前的问答序列及当前的问答意图和实体预测当前回答最优模板,搭建了一个可以利用上下文的多轮会话系统,对于时序比较久的多轮问答,采用此方法比以往简单通过实体判断进行多轮问答,准确率有了很大提升,此外,本发明实施例还降低了对于不同场景任务型多轮问答的开发难度,同时降低了维护成本。
作为示例,步骤S3还包括:
步骤S31、基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列;
步骤S32、基于所述当前轮问答序列选择最优回答。
其中,步骤S32包括:将所述当前轮问答序列输入预先训练好的长短期记忆网络(Long Short-Term Memory,简称LSTM)模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
其中,LSTM是一种时间递归神经网络,适合处理和预测时间序列中,间隔和延迟相对较长的重要事件,同时避免了常规循环神经网络(Recurrent Neural Network,简称RNN)的梯度消失。LSTM算法应用比较宽泛,也可以用来做分类任务,适合处理时间序列中,间隔和延时相对较长的类别概率预测事件。LSTM在本发明实施例中对于处理问句以及回答组合成的序列,然后预测接下来的回答模板起到了很大作用。
作为示例,所述方法还包括步骤S4、获取所述LSTM模型。
步骤S4具体包括:
步骤S41、采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;
步骤S42、基于所述问答序列构建问答序列向量;
步骤S43、调参并训练LSTM类别概率器得到所述LSTM模型。
图2示出了步骤S4对应的一个示例。
作为示例,步骤S1可包括:
将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
作为示例,步骤S2包括:
步骤S21、将所述文本序列转换为文本向量后输入至预先训练好的意图分类模型中,得到对应的意图;
作为一种示例,可以通过独热编码(one-hot)、词频或者词嵌入(word embedding)将所述文本序列转换为文本向量。
步骤S22、将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
作为一种示例,所述方法还包括步骤S5、获取所述意图分类模型和实体提取模型。
所述步骤S5具体包括:
步骤S51、采集符合应用场景的问答数据作为训练集文本;
步骤S52、将所述训练集文本进行预处理,具体包括分词、去停用词和无效字符、统一字体处理;
步骤S53、构建空间向量模型,再进行特征选择,特征加权,特征降维处理;
其中,可通过TF-IDF(term frequency–inverse document frequency)构建空间向量模型,TF-IDF是一种用于信息检索与数据挖掘的常用加权技术。
步骤S54、调参并训练分类器得到所述意图分类模型;
其中,可采用采用支持向量机(Support Vector Machine,简称SVM),决策树,随机森林,以及一些深度学习网络的分类算法等来训练分类器,从而得到所述意图分类模型实现问句的意图识别。
步骤S55、将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;
步骤S56、设置特征模板和条件随机场(Conditional Random Field,简称CRF)的训练数据标签;
其中,CRF是一种机器学习技术。在自然语言处理(Natural LanguageProcessing,简称NLP)领域中主要用于文本标注,应用场景有分词,词性标注,命名实体识别。在本发明实施例中,主要用于任务型多轮智能对话的实体抽取。
步骤S57、调参并训练CRF实体提取器得到所述实体提取模型。
需要说明的是,本发明实施例的步骤S1、S2等步骤标号并非用于绝对限定执行顺序,对于可并行进行的步骤,可并行执行,例如,步骤S53-步骤S54,以及步骤S55到步骤S57可并行进行,即在基于同一训练集文本可同时进行意图分类模型和实体提取模型的训练,图3示出了步骤S5对应的一个示例。
本发明实施例可通过增加相关训练数据来改善意图分类模型、实体提取模型来以及LSTM模型的准确率,从而提高意图判断、实体提取以及回复模板预测的准确率,从而提高了多轮对话的准确率,不需要通过改动原有代码做多轮判断,降低了系统维护成本,提高了快速响应机制。
作为一种示例,假设所述多轮智能回答包括M轮智能问答,M为大于等于2的整数,所述方法包括以下步骤:
步骤S101、获取第m轮问句信息,其中m=1,2,3…或M;
步骤S102、基于所述第m轮问句信息确定第m意图和第m实体;
步骤S103、以第1意图,第1实体,第1回答模板类型,第2意图,第2实体,第2回答模板类型…第m意图,第m实体,第m回答模板类型初始值的顺序组合成第m问答序列,并将所述第m问答序列向量化,生成第m问答序列向量,其中,所述第m回答模板类型初始值为一固定值;
作为一种示例,第m回答模板类型初始值为0。
步骤S104、将所述第m问答序列向量输入预先训练好的机器回复模板概率分类模型中,得到第m回答模板类型,根据所述第m回答模板类型选择最优回答。
作为一种示例,所述方法还包括步骤S6、根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所获取的意图和实体。可以根据不同业务场景制定校验意图识别和实体抽取组件,通常为后处理或者前处理组件。开发组件不影响主程序,可以多方协助开发,方便快捷,提高效率。步骤S6可设置在步骤S2和步骤S3之间,通过提高所获取的意图和实体的准确度来提高多轮对话回复的准确度,进而提高多轮对话效率和用户的对话体验。
本发明实施例还提供了一种多轮智能问答系统,如图4所示,包括问句信息获取模块1、意图实体确定模块2和最优回答选择模块3,其中,问句信息获取模块1配置为获取当前轮和先前轮的问句信息;意图实体确定模块2配置为基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;最优回答选择模块3配置为基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
本发明实施例所述系统基于当前问答之前的问答序列及当前的问答意图和实体预测当前回答最优模板,搭建了一个可以利用上下文的多轮会话系统,对于时序比较久的多轮问答,采用此系统比以往简单通过实体判断进行多轮问答,准确率有了很大提升,此外,本发明实施例还降低了对于不同场景任务型多轮问答的开发难度,同时降低了维护成本。
作为一种示例,所述最优回答选择模块3包括问答序列生成单元和最优回答选择单元,其中,问答序列生成单元配置为基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列,最优回答选择单元配置为基于所述当前轮问答序列选择最优回答。
作为一种示例,所述最优回答选择单元还配置为:将所述当前轮问答序列输入预先训练好的LSTM模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
作为示例,所述系统还包括第一模型建立模块,配置为获取所述LSTM模型;
所述第一模型建立模块包括训练数据采集单元、问答序列向量构建单元和LSTM模型训练单元,其中,训练数据采集单元,配置为采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;问答序列向量构建单元,配置为基于所述问答序列构建问答序列向量;LSTM模型训练单元,配置为调参并训练LSTM类别概率器得到所述LSTM模型。
作为示例,所述问句信息获取模块1具体配置为:将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
作为示例,所述意图实体确定模块2包括意图判断单元和实体提取单元,其中,意图判断单元配置为将所述文本序列转换为轮文本向量后输入至预先训练好的意图分类模型中,得到对应的意图,作为一种示例,可以通过独热编码(one-hot)、词频或者词嵌入(word embedding)将所述文本序列转换为文本向量。实体提取单元配置为将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
作为示例,所述系统还包括第二模型建立模块,配置为获取所述意图分类模型和实体提取模型,所述第二模型建立模块包括训练集文本采集单元、训练集文本预处理单元、特征向量处理单元、意图分类模型训练单元、CRF训练数据获取单元、CRF的训练数据处理单元和实体提取模型训练单元,其中,训练集文本采集单元配置为采集符合应用场景的问答数据作为训练集文本;训练集文本预处理单元配置为将所述训练集文本进行分词、去停用词和无效字符、统一字体处理;特征向量处理单元配置为构建空间向量模型,再进行特征选择,特征加权,特征降维处理,其中,可通过TF-IDF构建空间向量模型;意图分类模型训练单元配置为调参并训练分类器得到所述意图分类模型,其中,可采用采用支持向量机,决策树,随机森林,以及一些深度学习网络的分类算法等来训练分类器,从而得到所述意图分类模型实现问句的意图识别。CRF训练数据获取单元配置为将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;CRF的训练数据处理单元配置为设置特征模板和CRF的训练数据标签;实体提取模型训练单元配置为调参并训练CRF实体提取器得到所述实体提取模型。
本发明实施例可通过增加相关训练数据来改善意图分类模型、实体提取模型来以及LSTM模型的准确率,从而提高意图判断、实体提取以及回复模板预测的准确率,从而提高了多轮对话的准确率,不需要通过改动原有代码做多轮判断,降低了系统维护成本,提高了快速响应机制。
作为示例,所述系统还包括意图实体校验模块,配置为根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所述获取的意图和实体。可以根据不同业务场景制定校验意图识别和实体抽取组件,通常为后处理或者前处理组件。开发组件不影响主程序,可以多方协助开发,方便快捷,提高效率。意图实体校验模块通过提高第m意图和第m实体的准确度来提高多轮对话回复的准确度,进而提高多轮对话效率和用户的对话体验。
本发明实施例还提供一种控制器,其包括存储器与处理器,所述存储器存储有计算机程序,所述程序在被所述处理器执行时能够实现所述多轮智能问答方法的步骤。
本发明实施例还提供一种计算机可读存储介质,用于存储计算机程序,所述程序在由一计算机或处理器执行时实现所述多轮智能问答方法的步骤。
本发明实施例基于当前问答之前的问答序列及当前的问答意图和实体预测当前回答最优模板,提高了多轮问答的准确率。本发明实施例可通过增加相关训练数据来改善相应的模型来进一步提高多轮对话的准确率,不需要通过改动原有代码做多轮判断,降低了系统维护成本,提高了快速响应机制。此外,本发明实施例通过对意图和实体的检验和校正进一步提高了多伦对话的准确率,提高了对话效率,提升了用户体验。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (18)
1.一种多轮智能问答方法,其特征在于,包括:
获取当前轮和先前轮的问句信息;
基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;
基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
2.根据权利要求1所述的多轮智能问答方法,其特征在于,
所述基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答,包括:
基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列,基于所述当前轮问答序列选择最优回答。
3.根据权利要求2所述的多轮智能问答方法,其特征在于,
所述基于所述当前轮问答序列选择最优回答,包括:
将所述当前轮问答序列输入预先训练好的LSTM模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
4.根据权利要求3所述的多轮智能问答方法,其特征在于,还包括:获取所述LSTM模型,具体包括:
采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;
基于所述问答序列构建问答序列向量;
调参并训练LSTM类别概率器得到所述LSTM模型。
5.根据权利要求1所述的多轮智能问答方法,其特征在于,
获取问句信息,包括:
将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
6.根据权利要求5所述的多轮智能问答方法,其特征在于,
所述基于所述问句信息确定意图和实体,包括:
将所述文本序列转换为文本向量后输入至预先训练好的意图分类模型中,得到对应的意图;
将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
7.根据权利要求6所述的多轮智能问答方法,其特征在于,
所述方法还包括获取所述意图分类模型和实体提取模型,具体包括:
采集符合应用场景的问答数据作为训练集文本;
将所述训练集文本进行分词、去停用词和无效字符、统一字体处理;
构建空间向量模型,再进行特征选择,特征加权,特征降维处理;
调参并训练分类器得到所述意图分类模型;
将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;
设置特征模板和CRF的训练数据标签;
调参并训练CRF实体提取器得到所述实体提取模型。
8.根据权利要求1所述的多轮智能问答方法,其特征在于,所述方法还包括:
根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所获取的意图和实体。
9.一种多轮智能问答系统,其特征在于,包括:
问句信息获取模块,配置为获取当前轮和先前轮的问句信息;
意图实体确定模块,配置为基于所述当前轮和先前轮的问句信息获取当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型;
最优回答选择模块,配置为基于所获取的当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型选择最优回答。
10.根据权利要求9所述的多轮智能问答系统,其特征在于,
所述最优回答选择模块包括:
问答序列生成单元:配置为基于所述当前轮的意图和实体,以及先前轮的意图、实体和回答模板类型生成当前轮问答序列,
最优回答选择单元,配置为基于所述当前轮问答序列选择最优回答。
11.根据权利要求10所述的多轮智能问答系统,其特征在于,
所述最优回答选择单元还配置为:将所述当前轮问答序列输入预先训练好的LSTM模型,输出当前回答模板类型,根据所述当前回答模板类型输出回答,即为所述最优回答。
12.根据权利要求11所述的多轮智能问答系统,其特征在于,
所述系统还包括第一模型建立模块,配置为获取所述LSTM模型;
所述第一模型建立模块包括:
训练数据采集单元,配置为采集问答序列做训练数据,每一个所述问答序列至少包括一组问句类别、问句实体、回答模板类型这三个信息;
问答序列向量构建单元,配置为基于所述问答序列构建问答序列向量;
LSTM模型训练单元,配置为调参并训练LSTM类别概率器得到所述LSTM模型。
13.根据权利要求9所述的多轮智能问答系统,其特征在于,
所述问句信息获取模块具体配置为:
将用户输入的问句进行分词、去除停用词和无效字符以及同一字体处理,得到文本序列。
14.根据权利要求13所述的多轮智能问答系统,其特征在于,
所述意图实体确定模块包括:
意图判断单元,配置为将所述文本序列转换为轮文本向量后输入至预先训练好的意图分类模型中,得到对应的意图;
实体提取单元,配置为将所述文本序列输入预先训练好的实体提取模型中,得到对应的实体。
15.根据权利要求14所述的多轮智能问答系统,其特征在于,
所述系统还包括第二模型建立模块,配置为获取所述意图分类模型和实体提取模型,所述第二模型建立模块包括:
训练集文本采集单元,配置为采集符合应用场景的问答数据作为训练集文本;
训练集文本预处理单元,配置为将所述训练集文本进行分词、去停用词和无效字符、统一字体处理;
特征向量处理单元,配置为构建空间向量模型,再进行特征选择,特征加权,特征降维处理;
意图分类模型训练单元,配置为调参并训练分类器得到所述意图分类模型;
CRF训练数据获取单元,配置为将所述训练集文本进行数据清洗后进行序列标注,得到CRF的训练数据;
CRF的训练数据处理单元,配置为设置特征模板和CRF的训练数据标签;
实体提取模型训练单元,配置为调参并训练CRF实体提取器得到所述实体提取模型。
16.根据权利要求9所述的多轮智能问答系统,其特征在于,
所述系统还包括意图实体校验模块,配置为根据应用场景设定对应的意图校验规则和实体校验规则,根据所述意图校验规则和实体校验规则检测并校正所述获取的意图和实体。
17.一种控制器,其包括存储器与处理器,其特征在于:所述存储器存储有计算机程序,所述程序在被所述处理器执行时能够实现权利要求1至8中任意一项权利要求所述的方法的步骤。
18.一种计算机可读存储介质,用于存储计算机程序,其特征在于:所述程序在由一计算机或处理器执行时实现如权利要求1至8中任意一项权利要求所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910995561.2A CN110717027B (zh) | 2019-10-18 | 2019-10-18 | 多轮智能问答方法、系统以及控制器和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910995561.2A CN110717027B (zh) | 2019-10-18 | 2019-10-18 | 多轮智能问答方法、系统以及控制器和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110717027A true CN110717027A (zh) | 2020-01-21 |
CN110717027B CN110717027B (zh) | 2022-07-12 |
Family
ID=69212882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910995561.2A Active CN110717027B (zh) | 2019-10-18 | 2019-10-18 | 多轮智能问答方法、系统以及控制器和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717027B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111785350A (zh) * | 2020-06-30 | 2020-10-16 | 易联众信息技术股份有限公司 | 一种信息提取的方法、应用、装置及介质 |
CN112541059A (zh) * | 2020-11-05 | 2021-03-23 | 大连中河科技有限公司 | 一种应用在税务问答系统的多轮智能问答交互方法 |
CN113111167A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型的接处警文本车辆型号提取方法和装置 |
CN113761138A (zh) * | 2020-06-02 | 2021-12-07 | 阿里巴巴集团控股有限公司 | 对话系统、方法、装置、电子设备及计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160247068A1 (en) * | 2013-11-01 | 2016-08-25 | Tencent Technology (Shenzhen) Company Limited | System and method for automatic question answering |
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
CN108446286A (zh) * | 2017-02-16 | 2018-08-24 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
US20180268300A1 (en) * | 2017-03-15 | 2018-09-20 | International Business Machines Corporation | Generating natural language answers automatically |
CN109063035A (zh) * | 2018-07-16 | 2018-12-21 | 哈尔滨工业大学 | 一种面向出行领域的人机多轮对话方法 |
CN109101537A (zh) * | 2018-06-27 | 2018-12-28 | 北京慧闻科技发展有限公司 | 基于深度学习的多轮对话数据分类方法、装置和电子设备 |
CN109446306A (zh) * | 2018-10-16 | 2019-03-08 | 浪潮软件股份有限公司 | 一种基于任务驱动的多轮对话的智能问答方法 |
US10331402B1 (en) * | 2017-05-30 | 2019-06-25 | Amazon Technologies, Inc. | Search and knowledge base question answering for a voice user interface |
-
2019
- 2019-10-18 CN CN201910995561.2A patent/CN110717027B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160247068A1 (en) * | 2013-11-01 | 2016-08-25 | Tencent Technology (Shenzhen) Company Limited | System and method for automatic question answering |
CN108446286A (zh) * | 2017-02-16 | 2018-08-24 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
US20180268300A1 (en) * | 2017-03-15 | 2018-09-20 | International Business Machines Corporation | Generating natural language answers automatically |
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
US10331402B1 (en) * | 2017-05-30 | 2019-06-25 | Amazon Technologies, Inc. | Search and knowledge base question answering for a voice user interface |
CN109101537A (zh) * | 2018-06-27 | 2018-12-28 | 北京慧闻科技发展有限公司 | 基于深度学习的多轮对话数据分类方法、装置和电子设备 |
CN109063035A (zh) * | 2018-07-16 | 2018-12-21 | 哈尔滨工业大学 | 一种面向出行领域的人机多轮对话方法 |
CN109446306A (zh) * | 2018-10-16 | 2019-03-08 | 浪潮软件股份有限公司 | 一种基于任务驱动的多轮对话的智能问答方法 |
Non-Patent Citations (2)
Title |
---|
HARRY SHUM 等: "Bing dialog model: intent, knowledge and user interaction", 《WSDM "11: PROCEEDINGS OF THE FOURTH ACM INTERNATIONAL CONFERENCE ON WEB SEARCH AND DATA MINING》 * |
陈健鹏 等: "基于多轮交互的人机对话系统综述", 《南京信息工程大学学报(自然科学版)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111167A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型的接处警文本车辆型号提取方法和装置 |
CN113761138A (zh) * | 2020-06-02 | 2021-12-07 | 阿里巴巴集团控股有限公司 | 对话系统、方法、装置、电子设备及计算机可读存储介质 |
CN113761138B (zh) * | 2020-06-02 | 2024-02-02 | 阿里巴巴集团控股有限公司 | 对话系统、方法、装置、电子设备及计算机可读存储介质 |
CN111785350A (zh) * | 2020-06-30 | 2020-10-16 | 易联众信息技术股份有限公司 | 一种信息提取的方法、应用、装置及介质 |
CN112541059A (zh) * | 2020-11-05 | 2021-03-23 | 大连中河科技有限公司 | 一种应用在税务问答系统的多轮智能问答交互方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110717027B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717027B (zh) | 多轮智能问答方法、系统以及控制器和介质 | |
CN111859960B (zh) | 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质 | |
US10679643B2 (en) | Automatic audio captioning | |
CN108255934B (zh) | 一种语音控制方法及装置 | |
CN109032375B (zh) | 候选文本排序方法、装置、设备及存储介质 | |
CN110110062B (zh) | 机器智能问答方法、装置与电子设备 | |
CN112100354B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN110853626B (zh) | 基于双向注意力神经网络的对话理解方法、装置及设备 | |
CN110275939B (zh) | 对话生成模型的确定方法及装置、存储介质、电子设备 | |
WO2021117844A1 (en) | System and method for streaming end-to-end speech recognition with asynchronous decoders | |
KR102133825B1 (ko) | 단어자질을 강화한 음성 대화 방법 및 시스템 | |
CN113268609B (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
US8019594B2 (en) | Method and apparatus for progressively selecting features from a large feature space in statistical modeling | |
CN107229627B (zh) | 一种文本处理方法、装置及计算设备 | |
Metallinou et al. | Discriminative state tracking for spoken dialog systems | |
EP3979098A1 (en) | Data processing method and apparatus, storage medium, and electronic apparatus | |
CN109344242B (zh) | 一种对话问答方法、装置、设备及存储介质 | |
CN112967739B (zh) | 一种基于长短期记忆网络的语音端点检测方法及系统 | |
CN114416943B (zh) | 对话模型的训练方法、装置、电子设备及存储介质 | |
CN111709223B (zh) | 基于bert的句子向量生成方法、装置及电子设备 | |
CN111400340B (zh) | 一种自然语言处理方法、装置、计算机设备和存储介质 | |
Kim et al. | Sequential labeling for tracking dynamic dialog states | |
CN111046178A (zh) | 一种文本序列生成方法及其系统 | |
CN114707518B (zh) | 面向语义片段的目标情感分析方法、装置、设备及介质 | |
CN116450839A (zh) | 知识增强预训练语言模型知识注入和训练方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |